JP2022063323A - Information processor and system - Google Patents

Information processor and system Download PDF

Info

Publication number
JP2022063323A
JP2022063323A JP2022022333A JP2022022333A JP2022063323A JP 2022063323 A JP2022063323 A JP 2022063323A JP 2022022333 A JP2022022333 A JP 2022022333A JP 2022022333 A JP2022022333 A JP 2022022333A JP 2022063323 A JP2022063323 A JP 2022063323A
Authority
JP
Japan
Prior art keywords
robot
image
instruction
floor
product
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022022333A
Other languages
Japanese (ja)
Other versions
JP7242927B2 (en
Inventor
元信 川村
Motonobu Kawamura
匡史 福田
Tadashi Fukuda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018037850A external-priority patent/JP2019153070A/en
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2022022333A priority Critical patent/JP7242927B2/en
Publication of JP2022063323A publication Critical patent/JP2022063323A/en
Application granted granted Critical
Publication of JP7242927B2 publication Critical patent/JP7242927B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To facilitate control of a robot that moves in a shop.
SOLUTION: An information processor comprises input means, display means, instruction input means, and output means. The input means inputs imaging data captured at a plurality of individual tables arranged in a shop. The display means displays an image on the basis of the imaging data corresponding to one of the plurality of tables. The instruction input means inputs an instruction to a robot having a moving function. In response to the instruction, the output means outputs, to the robot, an instruction for moving to the table corresponding to the image displayed by the display means.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明の実施形態は、情報処理装置、及び情報処理プログラムに関する。 Embodiments of the present invention relate to an information processing apparatus and an information processing program.

近年、飲食店等において、料理や飲み物を厨房から客がいる座席まで運ぶ作業を、店員に代わって、自走するロボットにより実行させることが行われている。ロボットは、例えば料理や飲み物がトレイに乗せられた後、従業員のボタンに対する入力操作に応じて走行を開始する。ロボットは、指定された座席までの経路に従って走行し、料理や飲み物を座席まで運ぶ。 In recent years, in restaurants and the like, the work of transporting food and drink from the kitchen to the seat where the customer is located is executed by a self-propelled robot on behalf of the clerk. After the food or drink is placed on the tray, for example, the robot starts running in response to an input operation on an employee's button. The robot travels along the route to the designated seat and carries food and drink to the seat.

従来のロボットは、ロボットに設けられたボタンに対する入力操作に応じて動作する。従って、ロボットを利用する場合には、従業員がロボットの近くにいなければならない。また、ロボットが走行を開始した後、従業員は、ロボットの動作状況を把握することが困難となっていた。 The conventional robot operates in response to an input operation for a button provided on the robot. Therefore, when using a robot, the employee must be near the robot. In addition, after the robot started running, it was difficult for the employee to grasp the operating status of the robot.

特開2009-172410号公報Japanese Unexamined Patent Publication No. 2009-172410

本発明が解決しようとする課題は、店舗内で移動するロボットの制御を容易にすることが可能な情報処理装置、及び情報処理プログラムを提供することである。 An object to be solved by the present invention is to provide an information processing device and an information processing program capable of facilitating control of a robot moving in a store.

実施形態によれば、情報処理装置は、入力手段、表示手段、指示入力手段、出力手段を有する。入力手段は、店舗内に配置された複数のテーブルのそれぞれにおいて撮像された撮像データを入力する。表示手段は、前記複数のテーブルの何れかに対応する前記撮像データをもとに映像を表示する。指示入力手段は、移動する機能を有するロボットに対する指示を入力する。出力手段は、前記指示に応じて、前記表示手段により表示された映像に対応するテーブルまで移動する指示を前記ロボットに出力する。 According to the embodiment, the information processing apparatus includes an input means, a display means, an instruction input means, and an output means. The input means inputs the imaging data captured in each of the plurality of tables arranged in the store. The display means displays an image based on the image pickup data corresponding to any of the plurality of tables. The instruction input means inputs an instruction to a robot having a moving function. The output means outputs to the robot an instruction to move to the table corresponding to the image displayed by the display means in response to the instruction.

本実施形態の注文処理システムの構成を示すブロック図。The block diagram which shows the structure of the order processing system of this embodiment. 本実施形態におけるホールコントローラの要部構成を示すブロック図。The block diagram which shows the main part structure of the hall controller in this embodiment. 本実施形態における注文受付端末の要部構成を示すブロック図。The block diagram which shows the main part structure of the order receiving terminal in this embodiment. 本実施形態におけるテーブルロボットの要部構成を示すブロック図。The block diagram which shows the main part structure of the table robot in this embodiment. 本実施形態における注文受付端末とテーブルロボットの外観を示す図。The figure which shows the appearance of the order receiving terminal and the table robot in this embodiment. 第1実施形態におけるホールコントローラとテーブルロボットの処理を示すフローチャート。The flowchart which shows the processing of a hall controller and a table robot in 1st Embodiment. 第1実施形態における座席状況を示す画面の一例を示す図。The figure which shows an example of the screen which shows the seat situation in 1st Embodiment. 第1実施形態における詳細画面(座席状況詳細)の一例を示す図。The figure which shows an example of the detail screen (seat situation detail) in 1st Embodiment. 第1実施形態におけるフロアロボット26の選択画面の一例を示す図。The figure which shows an example of the selection screen of the floor robot 26 in 1st Embodiment. 第1実施形態における座席状況を示す画面の一例を示す図。The figure which shows an example of the screen which shows the seat situation in 1st Embodiment. 第1実施形態におけるハンディターミナルとフロアロボットの処理を示すフローチャート。The flowchart which shows the processing of the handy terminal and the floor robot in 1st Embodiment. 第2実施形態におけるテーブルロボットとホールコントローラの処理を示すフローチャート。The flowchart which shows the processing of the table robot and the hall controller in 2nd Embodiment. ホールコントローラによる比較処理を示すフローチャート。A flowchart showing the comparison process by the hall controller. 第1画像と第2画像を概念的に示す図。The figure which conceptually shows the 1st image and the 2nd image. 第2実施形態におけるハンディターミナルとフロアロボットの処理を示すフローチャート。The flowchart which shows the processing of the handy terminal and the floor robot in 2nd Embodiment. 第3実施形態におけるテーブルロボットの処理を示すフローチャート。The flowchart which shows the processing of the table robot in 3rd Embodiment. 第3実施形態におけるハンディターミナルとフロアロボットの処理を示すフローチャート。The flowchart which shows the processing of the handy terminal and the floor robot in 3rd Embodiment.

以下、本実施形態について、図面を参照しながら説明する。
図1は、本実施形態の注文処理システムの構成を示すブロック図である。注文処理システムは、例えば飲食店に設置されて稼働する。
Hereinafter, this embodiment will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of an order processing system according to the present embodiment. The order processing system is installed and operates in a restaurant, for example.

注文処理システムは、オーダーステーション10、POS(Point Of Sales)端末12、キッチンプリンタ14、ホールコントローラ16、及び少なくとも1つの複数のアクセスポイント(AP)18(18-1,…,18-m)がLAN(Local Area Network)等のネットワーク19を介して相互に接続される。また、注文処理システムは、アクセスポイント18との無線通信を介して、タブレット端末16K、複数のハンディターミナル20(20-1,…,20-n)、店舗内のテーブル毎に設置された複数台の注文受付端末22(22-1,…,22-x)及び複数台のテーブルロボット24(24-1,…,24-x)、少なくとも1台のフロアロボット26(26-1,…,26-y)が、ネットワーク19と接続される。 The order processing system includes an order station 10, a POS (Point Of Sales) terminal 12, a kitchen printer 14, a hall controller 16, and at least one plurality of access points (AP) 18 (18-1, ..., 18-m). They are connected to each other via a network 19 such as a LAN (Local Area Network). In addition, the order processing system is a tablet terminal 16K, a plurality of handy terminals 20 (20-1, ..., 20-n), and a plurality of units installed for each table in the store via wireless communication with the access point 18. Order receiving terminal 22 (22-1, ..., 22-x), a plurality of table robots 24 (24-1, ..., 24-x), and at least one floor robot 26 (26-1, ..., 26). -Y) is connected to the network 19.

オーダーステーション10は、ハンディターミナル20あるいは注文受付端末22から受信した注文情報に基づいて、キッチンプリンタ14に調理指示を送信する。また、配膳完了をハンディターミナル20から受信した場合、注文情報を売り上げ情報としてPOS端末12に送信する。 The order station 10 transmits a cooking instruction to the kitchen printer 14 based on the order information received from the handy terminal 20 or the order receiving terminal 22. When the serving completion is received from the handy terminal 20, the order information is transmitted to the POS terminal 12 as sales information.

POS端末12は、例えば会計場に配置され、客の飲食代金を精算する。POS端末12は、販売情報を登録、処理し、一取引ずつ会計処理を行う。販売情報には、顧客ごとの商品の売り上げ明細の情報が含まれる。 The POS terminal 12 is arranged in, for example, a checkout counter and pays for the food and drink of the customer. The POS terminal 12 registers and processes sales information, and performs accounting processing for each transaction. The sales information includes information on the sales details of the product for each customer.

キッチンプリンタ14は、例えば調理場に配置される。キッチンプリンタ14は、オーダーステーション10から受信した注文情報に基づいて、客が注文した商品(メニュー品目)やテーブルの識別番号を含む注文伝票を印刷することで調理指示を出力する。 The kitchen printer 14 is arranged, for example, in a kitchen. The kitchen printer 14 outputs a cooking instruction by printing an order slip including an item (menu item) ordered by the customer and an identification number of a table based on the order information received from the order station 10.

ホールコントローラ16は、フロアロボット26の制御と管理のための処理をする情報処理装置として動作するコンピュータである。ホールコントローラ16は、店舗内の客の状況を管理して、客の状況に応じて注文処理システムを構成する各装置を制御する。ホールコントローラ16は、例えば客が着席しているテーブルの状況、客情報(人数、性別、年代、職業など)の管理、注文履歴の管理、利用時間(着席からの経過時間、コース設定の終了時刻までの残り時間など)などを管理する。ホールコントローラ16は、客の状況を表す画面を表示する。店舗の従業員は、ホールコントローラ16の画面を視認する。また、ホールコントローラ16は、少なくとも商品(飲み物、食べ物など)が配置されたテーブルを含む範囲を撮像範囲として撮像された撮像データを入力し、撮像データをもとにフロアロボット26の動作を制御するための処理を実行する。ホールコントローラ16は、例えばテーブルに設置されたテーブルロボット24(あるいは注文受付端末22でも良い)に設けられたカメラにより撮像された撮像データを入力する。撮像データは、静止画、あるいは動画(映像)の何れであっても良い。ホールコントローラ16は、撮像データをもとに映像(または画像)を表示させ、この映像(または画像)を確認した従業員による入力操作に応じて、フロアロボット26に対して動作を制御する指示を出力することができる(第1実施形態)。また、ホールコントローラ16は、入力された撮像データについて画像処理をすることで商品の状況、例えば商品の残量、商品の提供に用いた器(グラス、皿など)の状態を検出する。ホールコントローラ16は、この検出結果をもとに適切なタイミングでフロアロボット26に対して動作を制御する指示を出力することができる(第2実施形態)。 The hall controller 16 is a computer that operates as an information processing device that performs processing for controlling and managing the floor robot 26. The hall controller 16 manages the situation of customers in the store and controls each device constituting the order processing system according to the situation of customers. The hall controller 16 manages, for example, the status of the table in which the customer is seated, customer information (number of people, gender, age, occupation, etc.), management of order history, usage time (elapsed time from seating, end time of course setting, etc.). (Remaining time until, etc.) is managed. The hall controller 16 displays a screen showing the situation of the customer. The store employee visually recognizes the screen of the hall controller 16. Further, the hall controller 16 inputs image pickup data captured with at least a range including a table on which products (drinks, food, etc.) are arranged as an image pickup range, and controls the operation of the floor robot 26 based on the image pickup data. Perform the processing for. The hall controller 16 inputs, for example, image pickup data captured by a camera provided in a table robot 24 (or an order reception terminal 22 may be installed) installed on a table. The captured data may be either a still image or a moving image (video). The hall controller 16 displays an image (or image) based on the captured data, and gives an instruction to the floor robot 26 to control the operation in response to an input operation by the employee who confirmed the image (or image). It can be output (first embodiment). Further, the hall controller 16 detects the state of the product, for example, the remaining amount of the product, and the state of the container (glass, dish, etc.) used for providing the product by performing image processing on the input imaging data. The hall controller 16 can output an instruction to control the operation to the floor robot 26 at an appropriate timing based on the detection result (second embodiment).

タブレット端末16Kは、ホールコントローラ16の入出力装置として使用される。タブレット端末16Kは、アクセスポイント18とネットワーク19を介して、ホールコントローラ16と通信する。なお、タブレット端末16Kは、アクセスポイント18を介さないで、直接、ホールコントローラ16と無線通信する構成としても良い。また、タブレット端末16Kは、1台に限らず、複数台が設けられていても良い。 The tablet terminal 16K is used as an input / output device for the hall controller 16. The tablet terminal 16K communicates with the hall controller 16 via the access point 18 and the network 19. The tablet terminal 16K may be configured to directly communicate with the hall controller 16 without going through the access point 18. Further, the tablet terminal 16K is not limited to one, and a plurality of tablets may be provided.

また、図1では、ネットワーク19に接続されたコンピュータによりホールコントローラ16が実現される例を示しているが、後述するホールコントローラ16の処理をタブレット端末16Kによって実行するものとしても良い。さらに、1台のホールコントローラ16(あるいはタブレット端末16K)が単独で後述する処理を実行するだけでなく、他の装置(複数のコンピュータ、あるいはオーダーステーション10)と協働して実行する構成としても良い。したがって、本実施形態において、ホールコントローラ16は、ネットワーク19に接続されたコンピュータにより実現される形態及びタブレット端末16Kにより実現される形態のいずれであってもよい。 Further, although FIG. 1 shows an example in which the hall controller 16 is realized by a computer connected to the network 19, the processing of the hall controller 16 described later may be executed by the tablet terminal 16K. Further, one hall controller 16 (or tablet terminal 16K) may not only execute the processing described later independently, but may also execute the processing in cooperation with another device (a plurality of computers or an order station 10). good. Therefore, in the present embodiment, the hall controller 16 may be in either a form realized by a computer connected to the network 19 or a form realized by the tablet terminal 16K.

アクセスポイント18は、タブレット端末16K、ハンディターミナル20、注文受付端末22、テーブルロボット24、フロアロボット26との無線通信を制御する無線通信装置である。アクセスポイント18は、例えば店内の天井などに少なくとも1台が配置される。 The access point 18 is a wireless communication device that controls wireless communication with the tablet terminal 16K, the handy terminal 20, the order receiving terminal 22, the table robot 24, and the floor robot 26. At least one access point 18 is arranged, for example, on the ceiling in the store.

ハンディターミナル20は、店員用の端末である。ハンディターミナル20は、注文の入力、来店した客を登録するチェックイン処理、客によって注文された商品の配膳完了の入力、ホールコントローラ16からの通知に応じたメッセージ出力などを行う。ハンディターミナル20は、入力された注文に応じた注文情報、配膳完了の商品を示す商品情報などをオーダーステーション10に送信する。また、ハンディターミナル20は、店員の操作等に応じて、ホールコントローラ16に対して各種の通知を送信することができる。 The handy terminal 20 is a terminal for a clerk. The handy terminal 20 inputs an order, a check-in process for registering a customer who has visited the store, an input for completing the serving of the product ordered by the customer, and outputs a message in response to a notification from the hall controller 16. The handy terminal 20 transmits to the order station 10 the order information according to the input order, the product information indicating the product whose serving is completed, and the like. Further, the handy terminal 20 can transmit various notifications to the hall controller 16 according to the operation of the clerk or the like.

注文受付端末22(22-1,…,22-x)は、例えば店内の各テーブルT(T-1,…,T-x)に配置される。注文受付端末22は、メニューを表示するとともに、客からの商品(メニュー品目)の注文を受け付ける。注文受付端末22は入力した注文情報をオーダーステーション10に送信する。注文受付端末22は、ホールコントローラ16から出力されたレコメンド情報に応じた、お勧め商品の画面などを表示する。 The order receiving terminal 22 (22-1, ..., 22-x) is arranged, for example, on each table T (T-1, ..., Tx) in the store. The order receiving terminal 22 displays a menu and accepts an order for a product (menu item) from a customer. The order receiving terminal 22 transmits the input order information to the order station 10. The order receiving terminal 22 displays a screen of a recommended product or the like according to the recommendation information output from the hall controller 16.

テーブルロボット24(24-1,…,24-x)は、例えば店内の各テーブルT(T-1,…,T-x)に配置される。テーブルロボット24は、客とコミュニケーションをとるためのロボットである。テーブルロボット24は、カメラにより少なくとも商品(飲み物、食べ物など)が配置されたテーブルを含む範囲を撮像範囲として撮像された撮像データを入力してホールコントローラ16に送信する出力機能を有する。また、テーブルロボット24は、マイクから入力された音声の認識機能を有し、客との簡単な会話、客からの音声による商品の注文受付などをする。テーブルロボット24は、スピーカから客に対するメッセージを出力する音声出力機能が設けられ、客との会話のために音声の認識機能により認識された音声に対応する応答メッセージの出力、ホールコントローラ16あるいはオーダーステーション10からの通知に応じたメッセージの出力などを実行する。 The table robot 24 (24-1, ..., 24-x) is arranged, for example, on each table T (T-1, ..., Tx) in the store. The table robot 24 is a robot for communicating with customers. The table robot 24 has an output function of inputting image pickup data captured by a camera over a range including a table on which products (drinks, food, etc.) are arranged as an image pickup range and transmitting the image pickup data to the hall controller 16. Further, the table robot 24 has a function of recognizing the voice input from the microphone, and has a simple conversation with the customer, accepts an order for a product by the voice from the customer, and the like. The table robot 24 is provided with a voice output function for outputting a message to the customer from the speaker, and outputs a response message corresponding to the voice recognized by the voice recognition function for conversation with the customer, the hall controller 16 or the order station. Output a message or the like in response to the notification from 10.

なお、図1では、注文受付端末22とテーブルロボット24は、別の装置として実現されているが、1つの装置によって実現することも可能である。 Although the order receiving terminal 22 and the table robot 24 are realized as separate devices in FIG. 1, they can also be realized by one device.

また、ホールコントローラ16に設けられたフロアロボット26を制御する機能は、注文受付端末22あるいはテーブルロボット24によって実現することも可能である。すなわち、注文受付端末22あるいはテーブルロボット24(さらには注文受付端末22とテーブルロボット24を組み合わせた構成)を、フロアロボット26の制御と管理のための処理をする情報処理装置として動作させるようにしても良い(第3実施形態)。 Further, the function of controlling the floor robot 26 provided in the hall controller 16 can also be realized by the order receiving terminal 22 or the table robot 24. That is, the order receiving terminal 22 or the table robot 24 (further, a configuration in which the order receiving terminal 22 and the table robot 24 are combined) is operated as an information processing device that performs processing for controlling and managing the floor robot 26. Also good (third embodiment).

フロアロボット26は、店舗内で商品の各テーブルへの配膳、及び各テーブルから食器、グラス、ゴミ等の物品の回収(バッシング)のために使用されるロボットである。フロアロボット26は、食器等を載置することができる、少なくとも1つの載置台が設けられている。フロアロボット26は、自律走行する機能が設けられており、店舗内のテーブルの配置に応じて設定された経路に応じて、指定された目的とするテーブルの位置まで走行することができる。フロアロボット26には、例えば衝突防止センサが設けられ、障害物を回避しながら走行する。 The floor robot 26 is a robot used for serving products to each table in a store and collecting (bashing) items such as tableware, glasses, and garbage from each table. The floor robot 26 is provided with at least one mounting table on which tableware and the like can be placed. The floor robot 26 is provided with a function of autonomously traveling, and can travel to a designated target table position according to a route set according to the arrangement of tables in the store. The floor robot 26 is provided with, for example, a collision prevention sensor, and travels while avoiding obstacles.

フロアロボット26は、アクセスポイント18を介した無線通信機能が設けられており、例えば客により注文受付端末22あるいはテーブルロボット24から入力された指示、ホールコントローラ16からの客の状況に応じた指示、あるいは従業員による操作により入力された指示を受信して、指示に応じた動作をすることができる。また、フロアロボット26は、走行に伴って、現在位置を示す位置データを、アクセスポイント18を介してホールコントローラ16に通知する。ホールコントローラ16は、フロアロボット26から受信される位置データをもとに、例えば店舗のテーブル配置などを表示するフロアマップに、フロアロボット26が走行する経路上における現在位置(動作状況)を示す情報を表示することができる。 The floor robot 26 is provided with a wireless communication function via an access point 18, for example, an instruction input by a customer from an order receiving terminal 22 or a table robot 24, an instruction from a hall controller 16 according to the customer's situation, and the like. Alternatively, it is possible to receive an instruction input by an operation by an employee and perform an operation according to the instruction. Further, the floor robot 26 notifies the hall controller 16 of the position data indicating the current position as the vehicle travels, via the access point 18. Based on the position data received from the floor robot 26, the hall controller 16 displays information indicating the current position (operation status) on the route on which the floor robot 26 travels on a floor map displaying, for example, the table layout of a store. Can be displayed.

フロアロボット26には、客や店員とのコミュニケーションをとるために、タッチパネルなどの入出力装置、カメラにより撮影した画像をもとにした人物認証機能、マイクから入力された音声の認識機能、スピーカから客あるいは店員に対するメッセージを出力する音声出力機能などが設けられる。 The floor robot 26 has an input / output device such as a touch panel, a person authentication function based on an image taken by a camera, a voice recognition function input from a microphone, and a speaker in order to communicate with customers and clerk. A voice output function that outputs a message to a customer or a clerk is provided.

図2は、本実施形態におけるホールコントローラ16の要部構成を示すブロック図である。
ホールコントローラ16は、コンピュータによって実現される。ホールコントローラ16は、CPU(Central Processing Unit)16A、ROM(Read Only Memory)16B、RAM(Random Access Memory)16C、記憶装置16D、表示装置16E、入力装置16F、タッチパネル16G、通信装置16H等を有する。
FIG. 2 is a block diagram showing a main configuration of the hall controller 16 in the present embodiment.
The hall controller 16 is realized by a computer. The hall controller 16 includes a CPU (Central Processing Unit) 16A, a ROM (Read Only Memory) 16B, a RAM (Random Access Memory) 16C, a storage device 16D, a display device 16E, an input device 16F, a touch panel 16G, a communication device 16H, and the like. ..

CPU16Aは、ROM16Bあるいは記憶装置16Dに記憶されたプログラムを実行することにより、ホールコントローラ16の各構成を制御する。CPU16Aにより実行されるプログラムには、基本プログラム(OS(Operating System))の他、情報処理装置として動作するための情報処理プログラムが含まれる。CPU16Aは、情報処理プログラムを実行することで店舗内の客の状況を管理する。CPU16Aは、テーブルロボット24(あるいは注文受付端末22)から送信される撮像データを、通信装置16Hを通じて入力する入力機能、入力された撮像データをもとに画像処理をすることで商品(飲み物、食べ物)の状況を検出する検出機能、検出機能の検出結果に応じてフロアロボット26を制御するための指示を出力する出力機能を実現する。検出機能により検出される商品の状況としては、商品の残量、商品の提供に用いた器(グラス、皿など)の状態などを検出することかできる。商品の提供に用いた器の状態としては、例えば皿が重ね合わされている、テーブル外に置かれているなど、客が器を不要としている状態を検出することが望ましい。 The CPU 16A controls each configuration of the hall controller 16 by executing a program stored in the ROM 16B or the storage device 16D. The program executed by the CPU 16A includes an information processing program for operating as an information processing device in addition to a basic program (OS (Operating System)). The CPU 16A manages the situation of customers in the store by executing an information processing program. The CPU 16A has an input function for inputting image pickup data transmitted from the table robot 24 (or order reception terminal 22) through the communication device 16H, and performs image processing based on the input image pickup data to produce products (drinks, food). ), And an output function that outputs an instruction for controlling the floor robot 26 according to the detection result of the detection function are realized. As the status of the product detected by the detection function, it is possible to detect the remaining amount of the product, the state of the container (glass, plate, etc.) used to provide the product, and the like. As for the state of the container used to provide the product, it is desirable to detect a state in which the customer does not need the container, for example, the dishes are stacked or placed outside the table.

また、CPU16Aは、例えば着席しているテーブルの状況、客情報(人数、性別、年代、職業など)の管理、注文履歴の管理、利用時間(着席からの経過時間、コース設定の終了時刻までの残り時間など)などの情報をもとに、客に応じたレコメンド情報を決定するレコメンド情報抽出処理を実行する。 Further, the CPU 16A manages, for example, the status of the seated table, customer information (number of people, gender, age, occupation, etc.), management of order history, and usage time (elapsed time from seating, until the end time of course setting). Based on information such as (remaining time, etc.), the recommendation information extraction process for determining the recommendation information according to the customer is executed.

ROM16Bは、CPU16Aが実行するプログラムなどを記憶する。RAM16Cは、各種のワークメモリエリアを形成する。記憶装置16Dは、例えばHDD(Hard disk drive)、SSD(Solid State Drive)などであり、各種プログラムや各種データを記憶する。 The ROM 16B stores a program or the like executed by the CPU 16A. The RAM 16C forms various working memory areas. The storage device 16D is, for example, an HDD (Hard disk drive), an SSD (Solid State Drive), or the like, and stores various programs and various data.

表示装置16Eは、例えばLCD(Liquid Crystal Display)である。入力装置16Fは、例えばキーボード、マウスなどのポインティングデバイスである。タッチパネル16Gは、表示及びタッチ操作による入力をする。 The display device 16E is, for example, an LCD (Liquid Crystal Display). The input device 16F is a pointing device such as a keyboard and a mouse. The touch panel 16G inputs by display and touch operation.

通信装置16Hは、例えばネットワーク19を通じた各装置との通信を制御する。また、通信装置16Hは、無線通信する機能が含まれていても良い。 The communication device 16H controls communication with each device through, for example, the network 19. Further, the communication device 16H may include a function of wireless communication.

図3は、本実施形態における注文受付端末22の要部構成を示すブロック図である。
注文受付端末22は、例えばタブレット型のコンピュータによって実現される。注文受付端末22は、CPU22A、ROM22B、RAM22C、記憶装置22D、タッチパネル22G、通信装置22H等を有する。
FIG. 3 is a block diagram showing a configuration of a main part of the order receiving terminal 22 in the present embodiment.
The order receiving terminal 22 is realized by, for example, a tablet-type computer. The order receiving terminal 22 includes a CPU 22A, a ROM 22B, a RAM 22C, a storage device 22D, a touch panel 22G, a communication device 22H, and the like.

CPU22Aは、ROM22Bあるいは記憶装置22Dに記憶されたプログラムを実行することにより、注文受付端末22の各構成を制御する。CPU22Aにより実行されるプログラムには、基本プログラム(OS(Operating System))の他、注文受付端末22として動作するための注文受付プログラムが含まれる。CPU22Aは、注文受付プログラムを実行することで、メニュー画面の表示、客の入力操作の受け付け、客の入力操作によってメニュー画面から選択された商品に応じた注文情報のオーダーステーション10への送信、ホールコントローラ16(あるいはオーダーステーション10)から送信されるレコメンド情報に応じたお勧め商品の通知(表示または音声出力)などの処理を実行する。CPU22Aは、各処理に応じた画面(GUI(Graphical User Interface))をタッチパネル22Gにおいて表示させる。 The CPU 22A controls each configuration of the order receiving terminal 22 by executing a program stored in the ROM 22B or the storage device 22D. The program executed by the CPU 22A includes an order acceptance program for operating as an order acceptance terminal 22 in addition to a basic program (OS (Operating System)). By executing the order acceptance program, the CPU 22A displays the menu screen, accepts the customer's input operation, sends the order information according to the product selected from the menu screen by the customer's input operation to the order station 10, and halls. Processing such as notification (display or voice output) of recommended products according to the recommendation information transmitted from the controller 16 (or the order station 10) is executed. The CPU 22A displays a screen (GUI (Graphical User Interface)) corresponding to each process on the touch panel 22G.

ROM22Bは、CPU22Aが実行するプログラムなどを記憶する。RAM22Cは、各種のワークメモリエリアを形成する。記憶装置22Dは、例えばHDD、SSDなどであり、各種プログラムや各種データを記憶する。タッチパネル22Gは、表示及びタッチ操作による入力をする。通信装置22Hは、アクセスポイント18との無線通信を制御する。 The ROM 22B stores a program or the like executed by the CPU 22A. The RAM 22C forms various working memory areas. The storage device 22D is, for example, an HDD, an SSD, or the like, and stores various programs and various data. The touch panel 22G performs display and input by touch operation. The communication device 22H controls wireless communication with the access point 18.

なお、注文受付端末22は、後述するテーブルロボット24と同様の機能を設けて、テーブルロボット24の設置を省くことも可能である。この場合、注文受付端末22には、カメラ、マイク、スピーカが設けられ、それぞれに対する後述するテーブルロボット24と同様の制御機能が設けられるものとする。 The order receiving terminal 22 can be provided with the same function as the table robot 24 described later, and the installation of the table robot 24 can be omitted. In this case, the order receiving terminal 22 is provided with a camera, a microphone, and a speaker, and is provided with the same control function as the table robot 24 described later for each.

図4は、本実施形態におけるテーブルロボット24の要部構成を示すブロック図である。
テーブルロボット24は、コンピュータの機能が設けられる。テーブルロボット24は、CPU24A、ROM24B、RAM24C、記憶装置24D、マイク24E、スピーカ24F、カメラ24G、通信装置24H、駆動機構24L等を有する。
FIG. 4 is a block diagram showing a main configuration of the table robot 24 in the present embodiment.
The table robot 24 is provided with a computer function. The table robot 24 includes a CPU 24A, a ROM 24B, a RAM 24C, a storage device 24D, a microphone 24E, a speaker 24F, a camera 24G, a communication device 24H, a drive mechanism 24L, and the like.

CPU24Aは、ROM24Bあるいは記憶装置24Dに記憶されたプログラムを実行することにより、テーブルロボット24の各構成を制御する。CPU24Aにより実行されるプログラムには、基本プログラム(OS(Operating System))の他、テーブルロボット24として動作するための制御プログラムが含まれる。CPU24Aは、制御プログラムを実行することで、カメラ24Gの動作を制御し、カメラ24Gにより撮像された撮像データを通信装置24Hを通じてホールコントローラ16に出力する出力機能を実現する。また、CPU24Aは、制御プログラムを実行することで、客とコミュニケーションをとるための動作を制御する。客とコミュニケーションには、音声(会話)によるもの、動作によるものなどがある。CPU24Aは、客と音声(会話)によりコミュニケーションするために、マイク24Eから入力された音声の認識機能、音声をスピーカ24Fから出力させる音声出力機能を実行する。CPU24Aは、音声の認識機能により、客からの会話のための音声、あるいは商品を注文するための音声について認識することができる。音声の認識機能では、例えば予め決められた音声コマンド(単語、あるいは文章)を認識して、音声コマンドに応じた処理を実行することができる。また、CPU24Aは、音声出力機能により、音声の認識機能により認識された会話のための音声に対応する応答メッセージの出力、あるいはホールコントローラ16あるいはオーダーステーション10からの通知に応じたメッセージの出力等をすることができる。 The CPU 24A controls each configuration of the table robot 24 by executing a program stored in the ROM 24B or the storage device 24D. The program executed by the CPU 24A includes a control program for operating as a table robot 24 in addition to a basic program (OS (Operating System)). The CPU 24A controls the operation of the camera 24G by executing the control program, and realizes an output function of outputting the image pickup data captured by the camera 24G to the hall controller 16 through the communication device 24H. Further, the CPU 24A controls the operation for communicating with the customer by executing the control program. Communication with customers includes voice (conversation) and movement. The CPU 24A executes a voice recognition function of the voice input from the microphone 24E and a voice output function of outputting the voice from the speaker 24F in order to communicate with the customer by voice (conversation). The CPU 24A can recognize the voice for conversation from the customer or the voice for ordering the product by the voice recognition function. In the voice recognition function, for example, a predetermined voice command (word or sentence) can be recognized and processing according to the voice command can be executed. Further, the CPU 24A outputs a response message corresponding to the voice for conversation recognized by the voice recognition function by the voice output function, or outputs a message according to the notification from the hall controller 16 or the order station 10. can do.

ROM24Bは、CPU24Aが実行するプログラムなどを記憶する。RAM24Cは、各種のワークメモリエリアを形成する。記憶装置24Dは、例えばHDD、SSDなどであり、各種プログラムや各種データを記憶する。 The ROM 24B stores a program or the like executed by the CPU 24A. The RAM 24C forms various working memory areas. The storage device 24D is, for example, an HDD, an SSD, or the like, and stores various programs and various data.

カメラ24Gは、CPU24Aの制御に応じて撮像を実行し、撮像データを出力する。カメラ24Gは、静止画、あるいは動画(映像)を撮像することができる。通信装置24Hは、アクセスポイント18との無線通信を制御する。 The camera 24G executes imaging under the control of the CPU 24A and outputs imaging data. The camera 24G can capture a still image or a moving image (video). The communication device 24H controls wireless communication with the access point 18.

CPU24Aは、駆動機構24Lを動作させる。テーブルロボット24は、複数の筐体(例えば上部筐体と下部筐体)が組み合わせて構成され、一部の筐体を駆動機構24Lによって動くように構成される。CPU24Aは、例えば客とのコミュニケーションのために、定常状態、あるいは音声による会話、商品の注文、各種メッセージ音声の出力のタイミングに合わせて駆動機構24Lを駆動させる。また、CPU24Aは、カメラ24Gによる撮像範囲を変更するために、カメラ24Gが設けられた筐体の向きを変更するように駆動機構24Lを駆動させることができる。
駆動機構24Lは、テーブルロボット24を構成する一部筐体を動かすための機械構造である。
The CPU 24A operates the drive mechanism 24L. The table robot 24 is configured by combining a plurality of housings (for example, an upper housing and a lower housing), and a part of the housings is configured to be moved by a drive mechanism 24L. The CPU 24A drives the drive mechanism 24L in a steady state, for example, for communication with a customer, in accordance with the timing of voice conversation, product order, and output of various message voices. Further, the CPU 24A can drive the drive mechanism 24L so as to change the direction of the housing provided with the camera 24G in order to change the imaging range by the camera 24G.
The drive mechanism 24L is a mechanical structure for moving a part of the housing constituting the table robot 24.

図5は、本実施形態における注文受付端末22とテーブルロボット24の外観を示す図である。図5は、注文受付端末22とテーブルロボット24とがテーブルに並べて配置された例を示している。
注文受付端末22は、基本的にテーブル上のクレードルに設置されており、必要に応じてクレードルから取り外して客が保持した状態で使用することができる。
FIG. 5 is a diagram showing the appearance of the order receiving terminal 22 and the table robot 24 in the present embodiment. FIG. 5 shows an example in which the order receiving terminal 22 and the table robot 24 are arranged side by side on the table.
The order receiving terminal 22 is basically installed in a cradle on the table, and can be removed from the cradle and used by the customer as needed.

テーブルロボット24は、客とコミュニケーションをとるために使用されるため、テーブルに着席した客と近い位置に設置されることが望ましい。また、テーブルロボット24は、少なくとも商品(飲み物、食べ物など)が配置されたテーブルを含む範囲を撮像範囲として撮像を実行する。例えば、テーブルロボット24は、商品が載置されるテーブル上だけでなく、テーブルに着席した客を含めた範囲を撮像範囲としても良い。このため、テーブルロボット24は、カメラ24Gにより目的とする撮像範囲を撮像可能とする位置に設置される。 Since the table robot 24 is used for communicating with the customer, it is desirable to install the table robot 24 at a position close to the customer seated at the table. Further, the table robot 24 performs imaging with at least a range including a table on which products (drinks, food, etc.) are arranged as an imaging range. For example, the table robot 24 may have an imaging range not only on the table on which the product is placed but also including a customer seated at the table. Therefore, the table robot 24 is installed at a position where the camera 24G can take an image in a target imaging range.

図5に示すテーブルロボット24は、例えばカメラ24Gを上部筐体に設置して、駆動機構24Lにより上部筐体を所定範囲内で左右上下に動作させながら、カメラ24Gによる撮像を実行させることもできる。これにより、カメラ24Gの向きを固定した場合より広い範囲を撮像範囲とすることが可能である。 In the table robot 24 shown in FIG. 5, for example, the camera 24G can be installed in the upper housing, and the camera 24G can perform imaging while operating the upper housing left, right, up and down within a predetermined range by the drive mechanism 24L. .. This makes it possible to set a wider range as the imaging range than when the direction of the camera 24G is fixed.

次に、本実施形態における注文処理システムの動作について説明する。
注文処理システムでは、来店した客が何れかのテーブルに着席すると、客を登録するチェックイン処理が実行される。チェックイン処理では、テーブル番号の登録、客情報(人数、性別、年代、職業など)、注文コース(提供される複数の商品、時間等が予め決められている)の入力などが行われる。客情報は、例えばハンディターミナル20を所持する店員が、ハンディターミナル20に対する操作によって入力されても良いし、客による注文受付端末22に対する操作によって入力しても良い。
Next, the operation of the order processing system in this embodiment will be described.
In the order processing system, when a customer who visits the store sits at one of the tables, a check-in process for registering the customer is executed. In the check-in process, table numbers are registered, customer information (number of people, gender, age, occupation, etc.), order course (multiple products to be offered, time, etc. are predetermined) are input. The customer information may be input by, for example, a clerk who owns the handy terminal 20 by operating the handy terminal 20 or by operating the order receiving terminal 22 by the customer.

また、テーブルロボット24のカメラによって撮影された映像(撮像データ)をホールコントローラ16に送信して、ホールコントローラ16(あるいはタブレット端末16K)において映像を表示させることで、映像を確認した店員によって客情報を入力させても良い。さらに、ホールコントローラ16において客を撮像した画像に対して人物認証処理を実行し、人数、性別、年代、職業などを検出して、客情報として入力するようにしても良い。 Further, by transmitting the image (image data) taken by the camera of the table robot 24 to the hall controller 16 and displaying the image on the hall controller 16 (or tablet terminal 16K), the customer information is provided by the clerk who confirmed the image. You may be asked to enter. Further, the hall controller 16 may execute a person authentication process on the image captured by the customer to detect the number of people, gender, age, occupation, etc., and input it as customer information.

客は、テーブルに着席した後、商品を注文する場合には、ハンディターミナル20を所持する店員に伝える他、注文受付端末22を利用することができる。注文受付端末22は、タッチパネル22Gにメニューを表示し、メニューからタッチ操作によって指定された商品に応じた注文情報をオーダーステーション10に送信する。なお、メニューは、全ての商品を分類して提示する通常メニュー、店舗側で予め用意した特定のお勧め商品を含むお勧めメニューなどが、客の入力操作に応じて切り替えて表示される。 When ordering a product after sitting at the table, the customer can inform the clerk who owns the handy terminal 20 and use the order receiving terminal 22. The order receiving terminal 22 displays a menu on the touch panel 22G, and transmits the order information corresponding to the product designated by the touch operation from the menu to the order station 10. As for the menu, a normal menu for classifying and presenting all products, a recommended menu including specific recommended products prepared in advance on the store side, and the like are switched and displayed according to a customer's input operation.

注文された商品は、店員によってテーブルに運ばれる他、フロアロボット26を利用して運ばれる。フロアロボット26は、従業員による入力操作、あるいはホールコントローラ16(またはテーブルロボット24)からの指示に応じて、例えば載置台に注文された商品、例えば飲み物のグラス、食べ物の皿などが載置された後、配膳先のテーブルが指示されることで、自走して指示されたテーブルまで運ぶことができる。 The ordered product is carried to the table by the clerk and also by using the floor robot 26. In the floor robot 26, for example, a product ordered on a mounting table, such as a drink glass or a food plate, is placed in response to an input operation by an employee or an instruction from the hall controller 16 (or a table robot 24). After that, by being instructed to serve the table, it is possible to run by itself and carry it to the instructed table.

ホールコントローラ16は、客が着席したテーブルの状況を、テーブルロボット24のカメラ24Gによって撮像された画像(映像)によって確認することができる。本実施形態では、ホールコントローラ16は、配膳された商品(飲み物、食べ物)の飲食状況、すなわち客による商品の消費の状況を撮像された映像(画像)をもとに判別し、適切なタイミングで食器、グラス、ゴミ等の物品を回収(バッシング)するために、フロアロボット26を映像が撮像されたテーブルに移動する指示を出力する。以下、フロアロボット26の動作を制御する指示を出力するための処理(第1実施形態、第2実施形態、第3実施形態)について説明する。 The hall controller 16 can confirm the situation of the table in which the customer is seated by the image (video) captured by the camera 24G of the table robot 24. In the present embodiment, the hall controller 16 determines the eating and drinking status of the served products (drinks, food), that is, the status of the consumption of the products by the customer based on the image (image) captured, and at an appropriate timing. In order to collect (bash) items such as tableware, glasses, and garbage, an instruction to move the floor robot 26 to the table on which the image is captured is output. Hereinafter, processes for outputting instructions for controlling the operation of the floor robot 26 (first embodiment, second embodiment, third embodiment) will be described.

(第1実施形態)
図6(A)は、第1実施形態におけるホールコントローラ16の処理を示すフローチャートである。図6(B)は、第1実施形態におけるテーブルロボット24の処理を示すフローチャートである。注文受付端末22がテーブルロボット24の機能を代替する場合には、注文受付端末22により図6(B)に示すフローチャートの処理が実行される。
(First Embodiment)
FIG. 6A is a flowchart showing the processing of the hall controller 16 in the first embodiment. FIG. 6B is a flowchart showing the processing of the table robot 24 in the first embodiment. When the order receiving terminal 22 substitutes the function of the table robot 24, the order receiving terminal 22 executes the processing of the flowchart shown in FIG. 6 (B).

第1実施形態では、テーブルロボット24(あるいは注文受付端末22)のカメラ24Gによって、少なくとも商品が配置されたテーブル上を撮像範囲とした映像を撮像し、この映像をホールコントローラ16において店舗の従業員が確認できるようにする。ホールコントローラ16は、映像を確認した従業員による入力操作に応じて、フロアロボット26に対して動作を制御する指示を出力する。 In the first embodiment, the camera 24G of the table robot 24 (or the order receiving terminal 22) captures an image with an imaging range of at least on the table on which the products are arranged, and this image is captured by a store employee on the hall controller 16. To be able to confirm. The hall controller 16 outputs an instruction to control the operation to the floor robot 26 in response to an input operation by the employee who confirmed the image.

ホールコントローラ16のCPU16Aは、ハンディターミナル20、注文受付端末22、テーブルロボット24、フロアロボット26等からの入力に基づいて、店舗内の状況を管理している。CPU16Aは、従業員による入力操作に応じて、管理状況を示す画面を表示することができる。 The CPU 16A of the hall controller 16 manages the situation in the store based on the inputs from the handy terminal 20, the order receiving terminal 22, the table robot 24, the floor robot 26, and the like. The CPU 16A can display a screen showing a management status in response to an input operation by an employee.

CPU16Aは、従業員による入力操作に応じて、例えば店舗内のテーブルの配置を示すフロアマップ(座席マップ)を含む、座席状況を示す画面を表示させる(ActA1)。 The CPU 16A displays a screen showing the seat status, including, for example, a floor map (seat map) showing the arrangement of tables in the store, in response to an input operation by the employee (ActA1).

図7は、ホールコントローラ16の表示装置16E、タッチパネル16G、あるいはタブレット端末16Kに表示される座席状況を示す画面D1の一例を示す図である。
図7に示す座席状況を示す画面D1では、例えば、切り替えボタンD11、テーブルレイアウトD12、フロアロボットマークD13、テーブルマークD14(A01~A10)、テーブルロボットマークD15、コミュニケーションマークD16、テーブルレイアウトD19が表示される。切り替えボタンD11は、画面の切り替えを指示するためのもので、例えば図7に示す画面に対応する「座席状況」ボタンの他、「調理状況」「シフト管理」「各種業務」のそれぞれに対応するボタンが含まれる。テーブルレイアウトD12は、店舗内の表示対象とする範囲内の複数のテーブルの配置を示す。図7では、テーブル番号A01~A10,B10,B12の12台のテーブルを表示対象としている例を示している。テーブルレイアウトD12は、入力操作によって変更される表示対象とする範囲に合わせて変更される。フロアロボットマークD13は、店舗内で走行するフロアロボット26の位置と動作状況を示すためのマークである。図7に示す例では、店舗内で3台のフロアロボット26が使用されることを示している。フロアロボットマークD13は、フロアロボット26が店舗内を走行するのに合わせて、現在位置に相当する位置に表示される。テーブルマークD14(A01~A10,B10,B12)は、個々のテーブルを示すもので、管理されている客情報などが表示される。テーブルロボットマークD15は、テーブルにテーブルロボット24が配置されていることを示す。コミュニケーションマークD16は、テーブルロボット24と客とがコミュニケーションした数を示す。テーブルロボット24と客とのコミュニケーションには、例えばテーブルロボット24との会話(出力される音声メッセージに対する応答)、テーブルロボット24からの商品の注文などを含む。テーブルレイアウトD19は、店舗内の全てのテーブルの配置を示し、テーブルレイアウトD12が表示されている範囲が明示される。
FIG. 7 is a diagram showing an example of a screen D1 showing a seating condition displayed on the display device 16E of the hall controller 16, the touch panel 16G, or the tablet terminal 16K.
On the screen D1 showing the seat status shown in FIG. 7, for example, a switching button D11, a table layout D12, a floor robot mark D13, a table mark D14 (A01 to A10), a table robot mark D15, a communication mark D16, and a table layout D19 are displayed. Will be done. The switching button D11 is for instructing screen switching. For example, in addition to the "seat status" button corresponding to the screen shown in FIG. 7, it corresponds to each of "cooking status", "shift management", and "various tasks". Buttons are included. The table layout D12 shows the arrangement of a plurality of tables within the range to be displayed in the store. FIG. 7 shows an example in which 12 tables of table numbers A01 to A10, B10, and B12 are displayed. The table layout D12 is changed according to the display target range changed by the input operation. The floor robot mark D13 is a mark for indicating the position and operation status of the floor robot 26 traveling in the store. The example shown in FIG. 7 shows that three floor robots 26 are used in the store. The floor robot mark D13 is displayed at a position corresponding to the current position as the floor robot 26 travels in the store. The table marks D14 (A01 to A10, B10, B12) indicate individual tables, and managed customer information and the like are displayed. The table robot mark D15 indicates that the table robot 24 is arranged on the table. The communication mark D16 indicates the number of times the table robot 24 and the customer communicate with each other. Communication between the table robot 24 and the customer includes, for example, a conversation with the table robot 24 (response to an output voice message), an order for a product from the table robot 24, and the like. The table layout D19 shows the arrangement of all the tables in the store, and the range in which the table layout D12 is displayed is specified.

ホールコントローラ16のCPU16Aは、何れかのテーブルマークD14を選択する操作を検出した場合(ActA2、Yes)、この検出したテーブルマークD14に対応するテーブルに設置されたテーブルロボット24に対して映像送信指示を送信する(ActA3)。また、CPU16Aは、該当するテーブルについての詳細画面を表示装置16E、タッチパネル16Gあるいはタブレット端末16Kに表示させる(ActA4)。 When the CPU 16A of the hall controller 16 detects an operation of selecting any of the table marks D14 (ActA2, Yes), the CPU 16A instructs the table robot 24 installed on the table corresponding to the detected table mark D14 to transmit a video. Is transmitted (ActA3). Further, the CPU 16A causes the display device 16E, the touch panel 16G, or the tablet terminal 16K to display the detailed screen of the corresponding table (ActA4).

一方、テーブルロボット24は、ホールコントローラ16から映像送信指示を受信すると(ActB1、Yes)、カメラ24Gによる少なくとも商品が配置されたテーブル上を撮像範囲として撮像を実行させる。テーブルロボット24は、撮像データを、例えばテーブル番号を示すデータを付加して、通信装置24Hを通じてホールコントローラ16に送信する(ActB2)。 On the other hand, when the table robot 24 receives the video transmission instruction from the hall controller 16 (ActB1, Yes), the table robot 24 causes the camera 24G to perform imaging with at least the table on which the product is arranged as the imaging range. The table robot 24 transmits the image pickup data to the hall controller 16 through the communication device 24H, for example, by adding data indicating the table number (ActB2).

ホールコントローラ16のCPU16Aは、テーブルロボット24から映像を受信し(ActA5)、この受信した映像を詳細画面において表示させる(ActA6)。 The CPU 16A of the hall controller 16 receives an image from the table robot 24 (ActA5) and displays the received image on the detail screen (ActA6).

図8は、詳細画面D2(座席状況詳細)の一例を示す図である。
図8に示す詳細画面D2では、例えば、客管理情報D21、映像表示エリアD22、複数の機能選択用のボタンD23~D29が含まれる。客管理情報D21は、客情報を含む、客の現在の状況を示す情報(注文コース、コースで決められた残り時間)などを示す。映像表示エリアD22は、テーブルロボット24から受信される撮像データに応じた映像が表示される。CPU16Aは、映像表示エリアD22に対する操作によって、映像の表示対象範囲を変更することができる。例えば、初期状態では、テーブルロボット24によって撮像された映像のうち、テーブル上の範囲の映像を表示させる。次に、例えば映像表示エリアD22に対するタッチ操作があった場合には、テーブル全体を含む映像を表示させ、さらにタッチ操作があった場合には、テーブルに着席している客を含む映像を表示させる。これにより、従業員が任意の範囲の映像を表示させて、商品の消費状況を含む客の状況を映像から確認することができる。
FIG. 8 is a diagram showing an example of the detailed screen D2 (seat situation details).
The detailed screen D2 shown in FIG. 8 includes, for example, customer management information D21, a video display area D22, and buttons D23 to D29 for selecting a plurality of functions. The customer management information D21 indicates information (order course, remaining time determined by the course) indicating the current status of the customer, including customer information. In the image display area D22, an image corresponding to the image pickup data received from the table robot 24 is displayed. The CPU 16A can change the display target range of the image by operating the image display area D22. For example, in the initial state, among the images captured by the table robot 24, the image in the range on the table is displayed. Next, for example, when there is a touch operation on the image display area D22, an image including the entire table is displayed, and when there is a touch operation, an image including a customer seated at the table is displayed. .. As a result, the employee can display an arbitrary range of images and confirm the customer's situation including the consumption status of the product from the images.

複数の機能選択用のボタンD23~D29には、例えば、おすすめメニューボタンD23、追加メニューボタンD24、ラストオーダーボタンD25、注文履歴ボタンD26、配膳ボタンD27、バッシングボタンD28、OKボタンD29が含まれる。おすすめメニューボタンD23、追加メニューボタンD24及びラストオーダーボタンD25は、従業員による入力操作に応じて、レコメンド情報を注文受付端末22に出力させるためのボタンである。注文履歴ボタンD26は、例えば本日分の注文履歴を一覧表示させるためのボタンである。 The buttons D23 to D29 for selecting a plurality of functions include, for example, a recommended menu button D23, an additional menu button D24, a last order button D25, an order history button D26, a serving button D27, a bashing button D28, and an OK button D29. The recommended menu button D23, the additional menu button D24, and the last order button D25 are buttons for outputting the recommendation information to the order receiving terminal 22 in response to an input operation by the employee. The order history button D26 is, for example, a button for displaying a list of order history for today.

配膳ボタンD27は、フロアロボット26に対して商品の配膳を指示するためのボタンである。バッシングボタンD28は、フロアロボット26に対して、テーブルから食器、グラス、ゴミ等を回収(バッシング)するために、指定したテーブルへの移動を指示するためのボタンである。OKボタンD29は、詳細画面D2の表示の終了を指示するためのボタンである。 The serving button D27 is a button for instructing the floor robot 26 to serve the product. The bashing button D28 is a button for instructing the floor robot 26 to move to a designated table in order to collect (bash) tableware, glasses, dust, etc. from the table. The OK button D29 is a button for instructing the end of the display of the detail screen D2.

ホールコントローラ16のCPU16Aは、詳細画面D2に設けられたボタンに対する操作を検出すると、入力操作がフロアロボット26の動作を指示するためのボタン、すなわち、配膳ボタンD27、バッシングボタンD28の何れかのボタンであるかを判別する。ここで、その他のボタンに対する操作であることが判別された場合(ActA7,A9、No)、CPU16Aは、操作されたボタンに応じた他の処理を実行し、詳細画面D2の表示を終了する(ActA10)。 When the CPU 16A of the hall controller 16 detects an operation for a button provided on the detail screen D2, the input operation is a button for instructing the operation of the floor robot 26, that is, one of the serving button D27 and the bashing button D28. Determine if it is. Here, when it is determined that the operation is for another button (ActA7, A9, No), the CPU 16A executes another process according to the operated button and ends the display of the detail screen D2 (the display of the detail screen D2 is finished). ActA10).

一方、バッシングボタンD28に対する操作(片付け指示)を検出した場合(ActA9、Yes)、CPU16Aは、フロアロボット26に対して、現在、映像の表示対象として選択されているテーブルを移動先として指示すると共に、物品の回収(バッシング)のための移動を指示する(ActA8)。 On the other hand, when the operation (cleanup instruction) for the bashing button D28 is detected (ActA9, Yes), the CPU 16A instructs the floor robot 26 to move to the table currently selected as the image display target. , Instruct movement for collection (bashing) of goods (ActA8).

なお、複数のフロアロボット26が設けられている場合、CPU16Aは、複数のフロアロボット26に対して予め設定された優先順位に基づいて何れかのフロアロボット26を選択して、この選択したフロアロボット26に対して指示を出力しても良い。 When a plurality of floor robots 26 are provided, the CPU 16A selects one of the floor robots 26 based on the priority set in advance for the plurality of floor robots 26, and the selected floor robots 26. An instruction may be output to 26.

また、従業員による入力操作によって複数のフロアロボット26から何れかを選択できるようにしても良い。この場合、例えばバッシングボタンD28の操作に応じて、CPU16Aは、フロアロボット26を選択するための選択画面を表示装置16E、タッチパネル16Gあるいはタブレット端末16Kに表示させる。 Further, it may be possible to select one from a plurality of floor robots 26 by an input operation by an employee. In this case, for example, in response to the operation of the bashing button D28, the CPU 16A causes the display device 16E, the touch panel 16G, or the tablet terminal 16K to display a selection screen for selecting the floor robot 26.

図9は、フロアロボット26の選択画面D3の一例を示す図である。
図9に示す選択画面D3では、選択可能なフロアロボット26にそれぞれ対応するフロアロボットマークD31と、フロアロボット26の移動先とするテーブルに対応するテーブルマークD32を明示している。また、操作ガイドメッセージD33として、例えば「バッシングへ行くロボットを選んで下さい」を表示させている。フロアロボットマークD31は、なお、移動中あるいは先に他の指示を受信しているフロアロボット26については選択不可として、このフロアロボット26に対応するフロアロボットマークD31については表示しないものとする。
FIG. 9 is a diagram showing an example of the selection screen D3 of the floor robot 26.
In the selection screen D3 shown in FIG. 9, the floor robot mark D31 corresponding to the selectable floor robot 26 and the table mark D32 corresponding to the table to which the floor robot 26 is moved are clearly shown. Further, as the operation guide message D33, for example, "Please select a robot to go to bashing" is displayed. The floor robot mark D31 is not selectable for the floor robot 26 that is moving or has received other instructions earlier, and the floor robot mark D31 corresponding to the floor robot 26 is not displayed.

ホールコントローラ16は、選択画面D3から何れかのフロアロボットマークD31が従業員による操作により選択されると、この選択されたフロアロボットマークD31に対応するフロアロボット26に、移動先とするテーブルと物品の回収(バッシング)を指示する。 When any floor robot mark D31 is selected by an employee from the selection screen D3, the hall controller 16 moves the table and articles to be moved to the floor robot 26 corresponding to the selected floor robot mark D31. Instruct the collection (bashing) of.

なお、CPU16Aは、フロアロボット26に対して動作を制御する指示を出力する場合、店員が所持しているハンディターミナル20に対して、フロアロボット26に対して指示を出力したことを通知する。 When the CPU 16A outputs an instruction to control the operation to the floor robot 26, the CPU 16A notifies the handy terminal 20 possessed by the clerk that the instruction is output to the floor robot 26.

同様にして、配膳ボタンD27に対する操作(配膳指示)を検出した場合(ActA7、Yes)、CPU16Aは、フロアロボット26に対して、現在、映像の表示対象として選択されているテーブルを移動先として、商品の配膳のための移動を指示する(ActA8)。 Similarly, when the operation (serving instruction) for the serving button D27 is detected (ActA7, Yes), the CPU 16A sets the floor robot 26 to the table currently selected as the image display target as the moving destination. Instruct the movement for serving the goods (ActA8).

なお、CPU16Aは、詳細画面D2において配膳ボタンD27あるいはバッシングボタンD28が選択された時に、動作可能なフロアロボット26がない場合には、ハンディターミナル20に対して、フロアロボット26が利用できない状態であることを通知する。これにより、フロアロボット26に代わって店員が速やかに対応できるようにする。 When the serving button D27 or the bashing button D28 is selected on the detail screen D2, the CPU 16A is in a state where the floor robot 26 cannot be used with respect to the handy terminal 20 if there is no operable floor robot 26. Notify that. As a result, the store clerk can promptly respond on behalf of the floor robot 26.

また、ホールコントローラ16のCPU16Aは、座席状況を示す画面D1(フロアマップ)を表示する際に(ActA1)、動作中のフロアロボット26があれば、フロアロボット26の動作状況をフロアマップに表示する。 Further, when the CPU 16A of the hall controller 16 displays the screen D1 (floor map) showing the seat status (ActA1), if there is an operating floor robot 26, the operating status of the floor robot 26 is displayed on the floor map. ..

図10は、フロアロボット26の動作状況が表示された座席状況を示す画面D4の一例を示す図である。
座席状況を示す画面D4では、例えば1台のフロアロボット26(R3)が物品の回収(バッシング)のために動作中であることを示している。フロアロボットマークD41では、動作中のフロアロボット26(R3)と対応づけて、動作目的を示す「バッシング中」のテキストが付加されている。なお、配膳のための動作中には「配膳中」のテキストが付加される。また、移動先とするテーブル(A09)のテーブルマークD42までの経路D44が表示されると共に、フロアロボット26(R3)の現在位置を示すフロアロボットマークD43が表示される。フロアロボットマークD43は、フロアロボット26(R3)から受信される現在位置を示す位置データをもとに表示位置が変更され、フロアロボット26(R3)の店舗内における現在位置を示す。
FIG. 10 is a diagram showing an example of a screen D4 showing a seating situation in which the operating state of the floor robot 26 is displayed.
The screen D4 showing the seat status shows that, for example, one floor robot 26 (R3) is in operation for collecting (bashing) articles. In the floor robot mark D41, the text "bashing" indicating the purpose of operation is added in association with the floor robot 26 (R3) in operation. In addition, the text of "serving" is added during the operation for serving. Further, the route D44 to the table mark D42 of the table (A09) to be moved is displayed, and the floor robot mark D43 indicating the current position of the floor robot 26 (R3) is displayed. The display position of the floor robot mark D43 is changed based on the position data indicating the current position received from the floor robot 26 (R3), and indicates the current position of the floor robot 26 (R3) in the store.

これにより、ホールコントローラ16において表示される座席状況を示す画面D4を確認することにより、従業員は、フロアロボット26の動作状況を容易に把握することができる。 Thereby, by checking the screen D4 showing the seat status displayed on the hall controller 16, the employee can easily grasp the operating status of the floor robot 26.

図11(A)は、第1実施形態におけるハンディターミナル20の処理を示すフローチャートである。図11(B)は、第1実施形態におけるフロアロボット26の動作を示すフローチャートである。 FIG. 11A is a flowchart showing the processing of the handy terminal 20 in the first embodiment. FIG. 11B is a flowchart showing the operation of the floor robot 26 in the first embodiment.

ハンディターミナル20は、ホールコントローラ16からの指示を受信すると(ActC1、Yes)、この受信内容に応じた出力をする(ActC2)。例えば、ハンディターミナル20は、表示装置にポップアップ画面を表示させて、ホールコントローラ16からの指示内容を表示する。また、ハンディターミナル20は、出力形態として表示に限らず、音出力、振動発生などによって、ホールコントローラ16からの受信を店員に認識させるようにしても良い。 When the handy terminal 20 receives an instruction from the hall controller 16 (ActC1, Yes), the handy terminal 20 outputs according to the received content (ActC2). For example, the handy terminal 20 causes the display device to display a pop-up screen and displays the content of instructions from the hall controller 16. Further, the handy terminal 20 is not limited to the display as an output form, and the store clerk may be made to recognize the reception from the hall controller 16 by sound output, vibration generation, or the like.

ハンディターミナル20は、例えば動作中のフロアロボット26を識別する情報(例えば「R3」)、移動先とするテーブルのテーブル番号、移動目的「バッシング」などを表示させることができる。 The handy terminal 20 can display, for example, information for identifying the floor robot 26 in operation (for example, “R3”), a table number of a table to be moved to, a moving purpose “bashing”, and the like.

また、ホールコントローラ16からフロアロボット26が利用できない状態であることが通知された場合、ハンディターミナル20は、フロアロボット26に代わって店員が対応することを要求するメッセージ等を出力する。この場合、前述と同様にして、テーブル番号、移動目的「バッシング」などを表示して、店員が速やかに対応できるようにする。 Further, when the hall controller 16 notifies that the floor robot 26 cannot be used, the handy terminal 20 outputs a message or the like requesting that the clerk respond on behalf of the floor robot 26. In this case, in the same manner as described above, the table number, the purpose of movement "bashing", etc. are displayed so that the clerk can respond promptly.

ハンディターミナル20は、ホールコントローラ16からの指示に応じた表示に対して、店員による入力操作を受け付けると(ActC3、Yes)処理を終了する。例えば、店員は、動作可能なフロアロボット26の情報を確認して、確認済みであることを示す応答を入力する。また、フロアロボット26が利用できない状態であることが通知された場合、店員は、自分が対応することを示す応答、あるいは他の店員(ハンディターミナル20)に対して応援を要求する応答を入力する。 The handy terminal 20 ends the process (ActC3, Yes) when the input operation by the clerk is received for the display according to the instruction from the hall controller 16. For example, the clerk confirms the information of the movable floor robot 26 and inputs a response indicating that the confirmation has been completed. Further, when it is notified that the floor robot 26 is not available, the clerk inputs a response indicating that he / she responds or a response requesting support from another clerk (handy terminal 20). ..

一方、フロアロボット26は、ホールコントローラ16からの指示を受信すると(ActD1、Yes)、移動先を示すテーブル番号をもとに、現在位置から目的とするテーブルまでの経路を設定して、移動制御を開始する。フロアロボット26は、店舗内における走行に伴って、現在位置を示す位置データを、アクセスポイント18を介してホールコントローラ16に通知する。 On the other hand, when the floor robot 26 receives an instruction from the hall controller 16 (ActD1, Yes), the floor robot 26 sets a route from the current position to the target table based on the table number indicating the movement destination, and controls the movement. To start. The floor robot 26 notifies the hall controller 16 of the position data indicating the current position as the vehicle travels in the store via the access point 18.

フロアロボット26は、目的とするテーブルの位置まで移動すると、例えば客に対して目的に応じたメッセージを出力する。 When the floor robot 26 moves to the position of the target table, the floor robot 26 outputs, for example, a message according to the purpose to the customer.

例えば、フロアロボット26は、配膳目的の場合には、例えば音声により「お待たせしました。料理(飲み物)をお取り下さい」のメッセージを出力して、載置台の商品(食べ物、飲み物)を取るように促す。また、音声によるメッセージだけでなく、表示装置にメッセージを表示させることも可能である。同様にして、フロアロボット26は、回収目的の場合には、例えば音声により「不要なグラスやお皿がありましたらお乗せ下さい」のメッセージを出力して、不要な物品を載置台に乗せるように促す。 For example, in the case of serving purposes, the floor robot 26 outputs, for example, a voice message "I'm sorry to have kept you waiting. Please take food (drinks)" to display the products (food, drinks) on the stand. Encourage them to take. In addition to voice messages, it is also possible to display the message on a display device. Similarly, for the purpose of collection, the floor robot 26 outputs, for example, a voice message "Please put an unnecessary glass or plate if you have one" so that the unnecessary item can be put on the mounting table. prompt.

フロアロボット26は、客による入力操作を受け付けると(ActD3、Yes)、例えば初期位置に戻る、あるいは次の目的とするテーブル位置までの処理を開始する(ActD4)。例えば、フロアロボット26は、配膳時には料理(飲み物)の受け取りが完了したことを示す操作を受け付け、回収時の不要な物品を載置台に乗せたことを示す操作を受け付ける。フロアロボット26は、客からの操作を例えばタッチパネルに対する操作により入力しても良いし、音声コマンド(音声認識)によって入力しても良い。 When the floor robot 26 receives an input operation by the customer (ActD3, Yes), for example, the floor robot 26 returns to the initial position or starts processing to the next target table position (ActD4). For example, the floor robot 26 accepts an operation indicating that the food (drink) has been received at the time of serving, and receives an operation indicating that an unnecessary item at the time of collection has been placed on the mounting table. The floor robot 26 may input an operation from a customer by, for example, an operation on a touch panel, or may input by a voice command (voice recognition).

なお、前述した説明では、フロアロボット26に対して、配膳または片付けの何れか一方の指示をしているが、配膳と片付けの両方を同時にフロアロボット26に対して指示することも可能である。例えば、配膳先のテーブルに移動させて商品を目的とするテーブルに運ばせた後、別のテーブルに片付けのために移動させる。また、片付けのために複数のテーブルを移動先として指示することも可能である。これにより、フロアロボット26を効率的に稼働させることができる。 In the above description, the floor robot 26 is instructed to either serve or clean up, but it is also possible to instruct the floor robot 26 to serve and clean up at the same time. For example, the product is moved to the serving table, transported to the target table, and then moved to another table for cleaning up. It is also possible to specify multiple tables as destinations for tidying up. As a result, the floor robot 26 can be operated efficiently.

このようにして、第1実施形態の注文処理システムでは、各テーブルに設置されたテーブルロボット24によって撮影された映像を、ホールコントローラ16において従業員が確認して、フロアロボット26に対して映像の表示対象として選択されたテーブルに指示することができる。ホールコントローラ16では、座席状況を示す画面D1において任意にテーブルを選択して、詳細画面D2の映像表示エリアD22において映像を表示させることができる。従って、テーブル毎に、商品の消費状況や客の状態などを確認して、簡単な操作によって店舗内で移動するフロアロボット26を適切なタイミングで移動させることができる。注文処理システムでは、ホールコントローラ16によって複数台のフロアロボット26に対して各種の指示を出力させ、またその動作状況を座席状況を示す画面D4において一括して表示させるので管理を容易にすることができる。 In this way, in the order processing system of the first embodiment, the employee confirms the image taken by the table robot 24 installed on each table on the hall controller 16, and the image is displayed on the floor robot 26. It is possible to instruct the table selected as the display target. In the hall controller 16, a table can be arbitrarily selected on the screen D1 showing the seat status, and an image can be displayed in the image display area D22 of the detail screen D2. Therefore, the floor robot 26 that moves in the store can be moved at an appropriate timing by checking the consumption status of the product, the state of the customer, and the like for each table. In the order processing system, the hall controller 16 outputs various instructions to the plurality of floor robots 26, and the operation status is collectively displayed on the screen D4 showing the seat status, so that management can be facilitated. can.

(第2実施形態)
図12(A)は、第2実施形態におけるテーブルロボット24の処理を示すフローチャートである。図12(B)は、第2実施形態におけるホールコントローラ16の処理を示すフローチャートである。注文受付端末22がテーブルロボット24の機能を代替する場合には、注文受付端末22により図12(A)に示すフローチャートの処理が実行される。
(Second Embodiment)
FIG. 12A is a flowchart showing the processing of the table robot 24 in the second embodiment. FIG. 12B is a flowchart showing the processing of the hall controller 16 in the second embodiment. When the order receiving terminal 22 substitutes the function of the table robot 24, the order receiving terminal 22 executes the processing of the flowchart shown in FIG. 12 (A).

第2実施形態では、テーブルロボット24(あるいは注文受付端末22)のカメラ24Gによって、少なくとも商品が配置されたテーブル上を撮像範囲とした映像を撮像し、配膳された商品(飲み物、食べ物)の飲食状況、すなわち客による商品の消費の状況(残量が少ない、あるいは残りが無い状態)を撮像された映像をもとに検出する。そして、この検出結果をもとに適切なタイミングでフロアロボット26に対して、物品の回収(バッシング)のための指示を出力する。 In the second embodiment, the camera 24G of the table robot 24 (or the order receiving terminal 22) captures an image in which at least the table on which the products are arranged is the imaging range, and the served products (drinks, food) are eaten and eaten. The situation, that is, the situation of the consumption of the product by the customer (the state where the remaining amount is low or there is no remaining amount) is detected based on the captured image. Then, based on this detection result, an instruction for collecting (bashing) the article is output to the floor robot 26 at an appropriate timing.

テーブルロボット24は、商品がテーブルに配膳された後、カメラ24Gにより撮像を実行して(ActE1)、この撮像された映像の撮像データを、例えばテーブル番号を示すデータを付加して、通信装置24Hを通じてホールコントローラ16に送信する(ActE2)。 After the product is served on the table, the table robot 24 executes imaging by the camera 24G (ActE1), and adds the imaging data of the captured image, for example, data indicating the table number, to the communication device 24H. It is transmitted to the hall controller 16 through (ActE2).

ホールコントローラ16のCPU16Aは、テーブルロボット24から送信された撮像データを受信すると(ActF1、Yes)、撮像データをもとに映像を表示させる。例えば、CPU16Aは、第1実施形態と同様にして、詳細画面D2の映像表示エリアD22に表示させる(ActF2)。CPU16Aは、テーブルロボット24から受信される映像から、例えば商品の配膳がされた後に第1画像を抽出して、テーブル番号と対応づけてRAM16Cあるいは記憶装置16Dに記憶させる。ここで、撮像された第1画像は、客により消費されていない商品の初期状態を表している。 When the CPU 16A of the hall controller 16 receives the image pickup data transmitted from the table robot 24 (ActF1, Yes), the CPU 16A displays an image based on the image pickup data. For example, the CPU 16A is displayed in the video display area D22 of the detail screen D2 in the same manner as in the first embodiment (ActF2). The CPU 16A extracts, for example, a first image from the video received from the table robot 24 after the product is served, and stores it in the RAM 16C or the storage device 16D in association with the table number. Here, the first image captured represents the initial state of the product that has not been consumed by the customer.

また、CPU16Aは、第1画像を記憶させた後、所定時間が経過したことが判別されると(ActF3、Yes)、テーブルロボット24から受信される映像から第2画像を抽出して、第1画像と第2画像とを比較する比較処理を実行する(ActF4)。 Further, when it is determined that a predetermined time has elapsed after storing the first image (ActF3, Yes), the CPU 16A extracts the second image from the video received from the table robot 24 and first. A comparison process for comparing the image and the second image is executed (ActF4).

なお、所定時間は、予め決められた1つの一定時間としても良いし、客についてチェックイン処理してからの経過時間に応じて変化させても良い。所定時間を変化させる場合、例えば客による飲食のペースが早い、開始直後の時間帯(例えば0~15分)には所定時間を短い時間(例えば3分間)とし、一般的に商品の注文ペースが遅くなる終了近くになるほど段階的に所定時間を長くしていく。例えば、時間帯15~30分では5分間、30~60分間では10分間とする、などとしても良い。これにより、グラスや皿などが空く(飲み物や食べ物が消費される)より適切なタイミングで、フロアロボット26を回収のために移動させるようにし、また商品の消費ペースが遅くなる時間帯では画像処理が必要となる頻度を少なくして、処理負荷を軽減するようにしても良い。 The predetermined time may be one predetermined fixed time, or may be changed according to the elapsed time from the check-in process for the customer. When changing the predetermined time, for example, when the pace of eating and drinking by the customer is fast, the predetermined time is set to a short time (for example, 3 minutes) in the time zone immediately after the start (for example, 0 to 15 minutes), and the ordering pace of the product is generally set. The closer to the end, the longer the predetermined time is. For example, the time zone of 15 to 30 minutes may be 5 minutes, and the time zone of 30 to 60 minutes may be 10 minutes. As a result, the floor robot 26 can be moved for collection at a more appropriate timing than when the glasses and plates are emptied (drinks and food are consumed), and image processing is performed during the time when the product consumption pace is slow. The processing load may be reduced by reducing the frequency of needing.

図13は、ホールコントローラ16による比較処理を示すフローチャートである。
まず、CPU16Aは、第1画像が記憶済みであり、第1画像に対する後述するオブジェクト検出が完了しているかを判別する。ここで、第1画像が先に記憶済みでない場合(ActS1、No)、CPU16Aは、第1画像から客に提供された商品に相当するオブジェクト画像(第1オブジェクト)を検出し(ActS2)、第1オブジェクトをRAM16Cあるいは記憶装置16Dに記憶させる(ActS3)。
FIG. 13 is a flowchart showing a comparison process by the Hall controller 16.
First, the CPU 16A determines whether the first image is stored and the object detection described later for the first image is completed. Here, when the first image is not stored first (ActS1, No), the CPU 16A detects an object image (first object) corresponding to the product provided to the customer from the first image (ActS2), and the first image is stored. 1 The object is stored in the RAM 16C or the storage device 16D (ActS3).

図14(A)は、第1画像を概念的に示す図である。図14(A)に示すように、テーブルロボット24のカメラ24Gにより撮影された第1画像には、複数の商品のそれぞれに相当する画像が含まれる場合がある。CPU16Aは、各商品に相当する画像をオブジェクトとして検出し、オブジェクト毎に異なる識別ラベルを付与して記憶させる。なお、画像中からオブジェクトを検出する画像処理方法としては、例えば、検出対象とするオブジェクトの形状、色などの特徴を示す特徴データを予め登録しておき、特徴データをもとに検出する方法などを用いることができる。その他の既存の画像処理方法を用いることが可能である。 FIG. 14A is a diagram conceptually showing the first image. As shown in FIG. 14A, the first image taken by the camera 24G of the table robot 24 may include an image corresponding to each of a plurality of products. The CPU 16A detects an image corresponding to each product as an object, assigns a different identification label to each object, and stores the image. As an image processing method for detecting an object in an image, for example, a method of registering feature data indicating features such as the shape and color of the object to be detected in advance and detecting the object based on the feature data, etc. Can be used. Other existing image processing methods can be used.

図14(A)に示す例では、例えば飲み物(ジョッキ、グラス)に相当するオブジェクトOB1,OB2、食べ物に相当するオブジェクトOB3,OB4,OB5が検出された例を示している。 In the example shown in FIG. 14A, for example, objects OB1 and OB2 corresponding to drinks (mugs, glasses) and objects OB3, OB4 and OB5 corresponding to food are detected.

また、CPU16Aは、第2画像から客に提供された商品に相当するオブジェクト画像(第2オブジェクト)を第1画像と同様にして検出し(ActS4)、第2オブジェクトをRAM16Cあるいは記憶装置16Dに記憶させる。 Further, the CPU 16A detects an object image (second object) corresponding to the product provided to the customer from the second image in the same manner as the first image (ActS4), and stores the second object in the RAM 16C or the storage device 16D. Let me.

図14(B)は、第2画像を概念的に示す図である。図14(B)に示す例では、第1画像と同様にして、オブジェクトOB1~OB5が検出された例を示している。ただし、図14(B)に示すように、第1画像を撮像してから所定時間が経過した後に第2画像を抽出しているため、客による飲食が進んで商品が消費されている。また、飲み物(ジョッキ、グラス)に相当するオブジェクトOB1,OB2は、客によってテーブル上に置かれた位置が変更されている。なお、第2画像は、第1画像の撮像時から所定時間経過した後に、第1画像を撮像した同じ範囲を改めて撮像した画像を意味する。 FIG. 14B is a diagram conceptually showing the second image. The example shown in FIG. 14B shows an example in which objects OB1 to OB5 are detected in the same manner as in the first image. However, as shown in FIG. 14 (B), since the second image is extracted after a predetermined time has elapsed from the imaging of the first image, the customer eats and drinks and the product is consumed. In addition, the positions of the objects OB1 and OB2 corresponding to drinks (mugs, glasses) on the table have been changed by the customer. The second image means an image in which the same range in which the first image is captured is captured again after a predetermined time has elapsed from the time when the first image was captured.

CPU16Aは、商品毎に状況の変化(残量)を検出するために、第1画像に含まれる複数の第1オブジェクトと、第2画像に含まれる複数の第2オブジェクトとを対応づける(ActS5)。すなわち、第1画像の撮像時と第2画像の撮像時では、商品のテーブル上の位置が異なっていたとしても商品毎に状況の変化を検出できるようにする。 The CPU 16A associates a plurality of first objects included in the first image with a plurality of second objects included in the second image in order to detect a change (remaining amount) in the situation for each product (ActS5). .. That is, it is possible to detect a change in the situation for each product even if the position on the table of the product is different between the time of capturing the first image and the time of capturing the second image.

CPU16Aは、対応づけた第1オブジェクトと第2オブジェクトの組み合わせ毎にそれぞれ比較して差分を抽出する(ActS6)。すなわち、第1画像の撮像時の商品の状況と第2画像の撮像時の商品の状況との変化を検出する。 The CPU 16A compares each combination of the associated first object and the second object and extracts the difference (ActS6). That is, the change between the state of the product at the time of capturing the first image and the state of the product at the time of capturing the second image is detected.

CPU16Aは、第1オブジェクトと第2オブジェクトの組み合わせ毎の差分と予め設定された基準値とを比較し(ActS7)、差分が基準値を上回っているかを判定する(ActS8)。基準値は、商品の消費が十分に多い状態、言い換えると、商品の残量が予め設定された所定値より少ない、あるいは残りが無い状態であることを判別するための値である。すなわち、もうすぐ空になる器がある、あるいは回収すべき空の器があることを判別するための値である。なお、第1オブジェクトと第2オブジェクトとの差分をもとに、商品の残量に相当する部分を検出しても良い。この場合、残量を判別するための基準値を設定して、この基準値と残量とを比較して、商品の残量が所定値より少ない、あるいは残りが無い状態であることを判別する。また、基準値は、オブジェクトの種類(飲み物、食べ物)毎に設定されていても良いし、オブジェクトの検出時に商品を特定できるのであれば商品毎に設定されていても良い。 The CPU 16A compares the difference for each combination of the first object and the second object with the preset reference value (ActS7), and determines whether the difference exceeds the reference value (ActS8). The reference value is a value for determining that the consumption of the product is sufficiently high, in other words, the remaining amount of the product is less than the preset predetermined value, or there is no remaining amount. That is, it is a value for determining whether there is an empty vessel that will be emptied soon or there is an empty vessel to be collected. It should be noted that the portion corresponding to the remaining amount of the product may be detected based on the difference between the first object and the second object. In this case, a reference value for determining the remaining amount is set, and the reference value is compared with the remaining amount to determine that the remaining amount of the product is less than the predetermined value or there is no remaining amount. .. Further, the reference value may be set for each type of object (drink, food), or may be set for each product as long as the product can be specified when the object is detected.

CPU16Aは、比較処理の結果をもとに、フロアロボット26を動作させる報知条件に達しているかを判別する。すなわち、第1オブジェクトと第2オブジェクトとの比較により、差分が基準値を上回っているオブジェクト(商品)がある場合には報知条件に達しているものと判別する。CPU16Aは、少なくとも1つのオブジェクトの差分が基準値を上回っている場合に報知条件に達しているものと判別しても良いし、予め決められた数のオブジェクトの差分が基準値を上回っている場合に報知条件に達しているものと判別しても良い。 Based on the result of the comparison process, the CPU 16A determines whether or not the notification condition for operating the floor robot 26 has been reached. That is, by comparing the first object and the second object, if there is an object (product) whose difference exceeds the reference value, it is determined that the notification condition has been reached. The CPU 16A may determine that the notification condition is reached when the difference of at least one object exceeds the reference value, or when the difference of a predetermined number of objects exceeds the reference value. It may be determined that the notification condition has been reached.

なお、前述した比較処理では、第1画像(第1オブジェクト)と第2画像(第2オブジェクト)との差分を抽出し、この差分をもとに商品の状況を判別しているが、その他の方法を用いて商品の状況を判別するようにしても良い。例えば、複数の商品のそれぞれについて、商品を撮像した画像の特徴量を辞書データとして予め登録しておき、この辞書データと第2画像から抽出される各オブジェクトの画像とを比較する。そして、オブジェクトの画像と辞書データとの類似度が所定の基準値を下回っているか、すなわち商品の消費が十分に多い状態にあるかを判別するようにしても良い。 In the comparison process described above, the difference between the first image (first object) and the second image (second object) is extracted, and the product status is determined based on this difference. A method may be used to determine the status of the product. For example, for each of the plurality of products, the feature amount of the image obtained by capturing the product is registered in advance as dictionary data, and the dictionary data is compared with the image of each object extracted from the second image. Then, it may be determined whether the similarity between the image of the object and the dictionary data is below a predetermined reference value, that is, whether the product is in a sufficiently high consumption state.

ここで、報知条件に達していないと判別された場合(ActF5、No)、CPU16Aは、前回の第2画像を抽出してから所定時間が経過した後(ActF3、Yes)、前述と同様にして、映像から第2画像を抽出して、第1画像と第2画像との比較により、フロアロボット26を動作させる報知条件に達しているかを判別する(ActF4,F5)。 Here, when it is determined that the notification condition has not been reached (ActF5, No), the CPU 16A performs the same as described above after a predetermined time has elapsed since the previous extraction of the second image (ActF3, Yes). , The second image is extracted from the video, and it is determined by comparing the first image and the second image whether the notification condition for operating the floor robot 26 is reached (Act F4, F5).

なお、2回目以降の比較処理では、先に第1画像を受信済みであるので(図13、ActS1、Yes)、CPU16Aは、第1画像から第1オブジェクトを検出する処理(ActS2,S3)を省略する。ただし、追加の商品が配膳された場合には、その後に、第1画像の記憶及び第1オブジェクトの抽出を実行する。この場合、CPU16Aは、第1画像から追加された商品に対応するオブジェクトを抽出して、他のオブジェクトと同様にして記憶しておく。また、第2画像から無くなった第2オブジェクトについては、商品が消費されて回収されたものとして、この第2オブジェクトに対応する第1オブジェクトも削除するものとする。 In the second and subsequent comparison processes, since the first image has already been received (FIG. 13, ActS1, Yes), the CPU 16A performs the process of detecting the first object from the first image (ActS2, S3). Omit. However, when the additional product is served, the first image is stored and the first object is extracted after that. In this case, the CPU 16A extracts the object corresponding to the added product from the first image and stores it in the same manner as the other objects. Further, regarding the second object lost from the second image, it is assumed that the goods have been consumed and collected, and the first object corresponding to the second object is also deleted.

報知条件に達していると判別された場合(ActF5、Yes)、CPU16Aは、残量が少ない、あるいは残りが無い状態の器があるものとして、フロアロボット26に対して、現在、映像の表示対象として選択されているテーブルを移動先として指示すると共に、物品の回収(バッシング)のための移動を指示するための呼び出し情報を出力する(ActF6)。なお、複数のフロアロボット26が設けられている場合、CPU16Aは、複数のフロアロボット26に対して予め設定された優先順位に基づいて何れかのフロアロボット26を選択して、この選択したフロアロボット26に対して呼び出し情報を出力する。 When it is determined that the notification condition has been reached (ActF5, Yes), the CPU 16A is currently targeted for displaying an image on the floor robot 26, assuming that there is a device with a low remaining amount or no remaining amount. In addition to instructing the table selected as the move destination as the move destination, the call information for instructing the move for collecting (bashing) the article is output (ActF6). When a plurality of floor robots 26 are provided, the CPU 16A selects one of the floor robots 26 based on the priority set in advance for the plurality of floor robots 26, and the selected floor robots 26. Call information is output to 26.

なお、CPU16Aは、フロアロボット26に対して呼び出し情報を出力する場合、第1実施形態と同様にして、店員が所持しているハンディターミナル20に対して、呼び出し情報を出力する。なお、CPU16Aは、動作可能なフロアロボット26がない場合には、ハンディターミナル20に対して、フロアロボット26が利用できない状態であることを通知する。 When the CPU 16A outputs the call information to the floor robot 26, the CPU 16A outputs the call information to the handy terminal 20 owned by the clerk in the same manner as in the first embodiment. If there is no operable floor robot 26, the CPU 16A notifies the handy terminal 20 that the floor robot 26 cannot be used.

これにより、ホールコントローラ16は、従業員による入力操作がなくても、テーブルロボット24から受信される映像をもとに、フロアロボット26を物品の回収に行かせる状態であることを検出して、フロアロボット26に対して指示することができる。 As a result, the hall controller 16 detects that the floor robot 26 is in a state of being sent to collect the article based on the image received from the table robot 24 without any input operation by the employee. It is possible to instruct the floor robot 26.

図15(A)は、第2実施形態におけるハンディターミナル20の処理を示すフローチャートである。図15(B)は、第2実施形態におけるフロアロボット26の動作を示すフローチャートである。 FIG. 15A is a flowchart showing the processing of the handy terminal 20 in the second embodiment. FIG. 15B is a flowchart showing the operation of the floor robot 26 in the second embodiment.

ハンディターミナル20は、ホールコントローラ16から呼び出し情報を受信すると(ActG1、Yes)、この受信に応じた出力をする(ActC2)。例えば、ハンディターミナル20は、表示装置にポップアップ画面を表示させて、ホールコントローラ16からの指示内容を表示する。また、ハンディターミナル20は、出力形態として表示に限らず、音出力、振動発生などによって、ホールコントローラ16からの受信を店員に認識させるようにしても良い。なお、ハンディターミナル20の動作は、第1実施形態における回収(バッシング)時と同様に実行されるものとして詳細な説明を省略する。 When the handy terminal 20 receives the call information from the hall controller 16 (ActG1, Yes), the handy terminal 20 outputs according to the reception (ActC2). For example, the handy terminal 20 causes the display device to display a pop-up screen and displays the content of instructions from the hall controller 16. Further, the handy terminal 20 is not limited to the display as an output form, and the store clerk may be made to recognize the reception from the hall controller 16 by sound output, vibration generation, or the like. It should be noted that the operation of the handy terminal 20 is performed in the same manner as at the time of collection (bashing) in the first embodiment, and detailed description thereof will be omitted.

一方、フロアロボット26は、ホールコントローラ16から呼び出し情報を受信すると(ActH1、Yes)、位置情報(移動先を示すテーブル番号)を受信し、現在位置から目的とするテーブルまでの経路を設定して、移動制御を開始する。なお、フロアロボット26の動作は、第1実施形態における回収(バッシング)時と同様に実行されるものとして詳細な説明を省略する。 On the other hand, when the floor robot 26 receives the call information from the hall controller 16 (ActH1, Yes), the floor robot 26 receives the position information (table number indicating the movement destination) and sets a route from the current position to the target table. , Start movement control. It should be noted that the operation of the floor robot 26 is performed in the same manner as at the time of collection (bashing) in the first embodiment, and detailed description thereof will be omitted.

このようにして、第2実施形態の注文処理システムでは、各テーブルに設置されたテーブルロボット24によって撮影された映像をもとに、テーブル上の商品について残量が少ない、あるいは残りが無い状態を検出して、フロアロボット26に対して、物品の回収(バッシング)のための指示を出力することができる。従って、従業員の負担を増大させることなく、テーブル毎に、商品の消費状況に応じて、フロアロボット26を適切なタイミングで回収のために移動させることができる。 In this way, in the order processing system of the second embodiment, the remaining amount of the products on the table is low or there is no remaining amount based on the images taken by the table robot 24 installed on each table. Upon detection, it is possible to output an instruction for collecting (bashing) the article to the floor robot 26. Therefore, the floor robot 26 can be moved for collection at an appropriate timing according to the consumption status of the product for each table without increasing the burden on the employee.

(第3実施形態)
図16は、第3実施形態におけるテーブルロボット24(あるいは注文受付端末22)の処理を示すフローチャートである。図17(A)は、第3実施形態におけるハンディターミナル20の処理を示すフローチャートである。図17(B)は、第3実施形態におけるフロアロボット26の動作を示すフローチャートである。
(Third Embodiment)
FIG. 16 is a flowchart showing the processing of the table robot 24 (or the order receiving terminal 22) in the third embodiment. FIG. 17A is a flowchart showing the processing of the handy terminal 20 in the third embodiment. FIG. 17B is a flowchart showing the operation of the floor robot 26 in the third embodiment.

第3実施形態では、第2実施形態において説明したホールコントローラ16の処理をテーブルロボット24により実行させる。すなわち、テーブルロボット24をフロアロボット26の制御と管理のための処理をする情報処理装置として動作させる。なお、テーブルロボット24に代えて、注文受付端末22あるいは注文受付端末22とテーブルロボット24を組み合わせた構成により実行させるようにしても良い。 In the third embodiment, the processing of the hall controller 16 described in the second embodiment is executed by the table robot 24. That is, the table robot 24 is operated as an information processing device that performs processing for controlling and managing the floor robot 26. Instead of the table robot 24, the order reception terminal 22 or the order reception terminal 22 and the table robot 24 may be combined for execution.

テーブルロボット24のCPU24Aは、商品がテーブルに配膳された後、カメラ24Gにより撮像を実行して(ActJ1)、第1画像としてテーブル番号と対応づけてRAM16Cあるいは記憶装置16Dに記憶させる。 After the product is served on the table, the CPU 24A of the table robot 24 executes imaging by the camera 24G (ActJ1) and stores the first image in the RAM 16C or the storage device 16D in association with the table number.

CPU24Aは、第1画像を記憶させた後、所定時間が経過したことが判別されると(ActJ2、Yes)、第2画像を撮像して(ActJ3)、第1画像と第2画像とを比較する比較処理を実行する(ActF4)。なお、比較処理は、第2実施形態と同様に実行されるものとして詳細な説明を省略する。 When it is determined that a predetermined time has elapsed after storing the first image (ActJ2, Yes), the CPU 24A captures the second image (ActJ3) and compares the first image with the second image. The comparison process is executed (ActF4). It should be noted that the comparison process is performed in the same manner as in the second embodiment, and detailed description thereof will be omitted.

CPU24Aは、第2実施形態と同様にして、比較処理の処理結果をもとに、フロアロボット26を動作させる報知条件に達していると判別される場合(ActJ5、Yes)、フロアロボット26に対して、物品の回収(バッシング)のための移動を指示するための呼び出し情報を出力する(ActJ6)。この時、CPU24Aは、自テーブルロボット24が設置されているテーブルを移動先として指示する。なお、複数のフロアロボット26が設けられている場合、CPU16Aは、複数のフロアロボット26に対して予め設定された優先順位に基づいて何れかのフロアロボット26を選択して、この選択したフロアロボット26に対して呼び出し情報を出力する。 Similar to the second embodiment, when it is determined that the notification condition for operating the floor robot 26 is reached based on the processing result of the comparison processing (ActJ5, Yes), the CPU 24A has the same with respect to the floor robot 26. Then, the call information for instructing the movement for the collection (bashing) of the article is output (ActJ6). At this time, the CPU 24A instructs the table on which the own table robot 24 is installed as the moving destination. When a plurality of floor robots 26 are provided, the CPU 16A selects one of the floor robots 26 based on the priority set in advance for the plurality of floor robots 26, and the selected floor robots 26. Call information is output to 26.

なお、CPU24Aは、フロアロボット26に対して呼び出し情報を出力する場合、第2実施形態と同様にして、店員が所持しているハンディターミナル20に対して、呼び出し情報を出力する。 When the CPU 24A outputs the call information to the floor robot 26, the CPU 24A outputs the call information to the handy terminal 20 owned by the clerk in the same manner as in the second embodiment.

また、テーブルロボット24は、直接、フロアロボット26に対して呼び出し情報を出力するのではなく、ホールコントローラ16に出力するようにしても良い。ホールコントローラ16は、テーブルロボット24からの呼び出し情報に応じて、フロアロボット26に対して、呼び出し情報の送信元のテーブルを移動先として、物品の回収(バッシング)のための移動を指示する呼び出し情報を出力する。この場合、ホールコントローラ16は、複数のフロアロボット26が設けられている場合、複数のフロアロボット26に対して予め設定された優先順位に基づいて何れかのフロアロボット26を選択して、この選択したフロアロボット26に対して呼び出し情報を出力することが可能である。さらに、ホールコントローラ16は、複数のテーブルのそれぞれに設置されたテーブルロボット24から呼び出し情報を受信している場合には、複数のテーブルに物品の回収の行くことが出来るようにスケジューリングして、フロアロボット26に対して指示するようにしても良い。ホールコントローラ16は、例えば効率的に1台のフロアロボット26によって複数のテーブルで物品の回収ができるように、テーブルの配置などをもとに、物品の回収に行くテーブルと移動順を設定して、フロアロボット26に指示する。 Further, the table robot 24 may output the call information to the hall controller 16 instead of directly outputting the call information to the floor robot 26. In response to the call information from the table robot 24, the hall controller 16 instructs the floor robot 26 to move the floor robot 26 for collecting (bashing) the goods with the table from which the call information is transmitted as the move destination. Is output. In this case, when a plurality of floor robots 26 are provided, the hall controller 16 selects one of the floor robots 26 based on the priority set in advance for the plurality of floor robots 26, and selects one of the floor robots 26. It is possible to output call information to the floor robot 26. Further, when the hall controller 16 receives the call information from the table robots 24 installed in each of the plurality of tables, the hall controller 16 schedules the collection of the articles to the plurality of tables on the floor. You may instruct the robot 26. The hall controller 16 sets the table to be collected and the order of movement based on the arrangement of the tables so that the articles can be efficiently collected at a plurality of tables by, for example, one floor robot 26. , Instruct the floor robot 26.

ハンディターミナル20は、テーブルロボット24(あるいはホールコントローラ16)から呼び出し情報を受信すると(ActK1、Yes)、この受信に応じた出力をする(ActK2)。なお、ハンディターミナル20の動作は、第2実施形態における回収(バッシング)時と同様に実行されるものとして詳細な説明を省略する。 When the handy terminal 20 receives the call information from the table robot 24 (or the hall controller 16) (ActK1, Yes), the handy terminal 20 outputs according to the reception (ActK2). It should be noted that the operation of the handy terminal 20 is performed in the same manner as at the time of collection (bashing) in the second embodiment, and detailed description thereof will be omitted.

一方、フロアロボット26は、ホールコントローラ16から呼び出し情報を受信すると(ActM1、Yes)、現在位置から呼び出し情報の送信元のテーブルまでの経路を設定して、移動制御を開始する(ActM2)。なお、フロアロボット26の動作は、第2実施形態における回収(バッシング)時と同様に実行されるものとして詳細な説明を省略する。 On the other hand, when the floor robot 26 receives the call information from the hall controller 16 (ActM1, Yes), the floor robot 26 sets a route from the current position to the table from which the call information is transmitted, and starts the movement control (ActM2). It should be noted that the operation of the floor robot 26 is performed in the same manner as at the time of collection (bashing) in the second embodiment, and detailed description thereof will be omitted.

このようにして、第3実施形態の注文処理システムでは、各テーブルに設置されたテーブルロボット24によって撮像されたテーブル上の画像をもとに、テーブル上の商品について残量が少ない、あるいは残りが無い状態を検出して、フロアロボット26に対して、物品の回収(バッシング)のための指示を出力することができる。従って、客が注文受付端末22あるいはテーブルロボット24に対して入力操作をすることなく、商品の消費状況に応じて、フロアロボット26を適切なタイミングで回収のために呼び出すことができる。 In this way, in the order processing system of the third embodiment, the remaining amount of the products on the table is small or the rest is based on the image on the table captured by the table robot 24 installed on each table. It is possible to detect the absence state and output an instruction for collecting (bashing) the article to the floor robot 26. Therefore, the floor robot 26 can be called for collection at an appropriate timing according to the consumption status of the product without the customer performing an input operation to the order receiving terminal 22 or the table robot 24.

なお、前述した各実施形態の説明では、テーブルロボット24あるいは注文受付端末22にカメラを設けて撮像すると説明しているが、テーブルロボット24あるいは注文受付端末22とは別に、テーブルの周辺(上部を含む)に1台あるいは複数台のカメラを設置して、例えばテーブル上、あるいはテーブル周辺の顧客を含めた周辺を撮像範囲として撮像をするようにしても良い。 In the description of each of the above-described embodiments, it is described that a camera is provided on the table robot 24 or the order receiving terminal 22 to take an image. However, apart from the table robot 24 or the order receiving terminal 22, the periphery of the table (upper part) One or a plurality of cameras may be installed in (including) to take an image on the table or in the vicinity including the customer around the table as the imaging range.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

また、前述した実施の形態において記載した処理は、コンピュータに実行させることのできるプログラムとして、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD-ROM、DVD等)、半導体メモリなどの記録媒体に書き込んで各種装置に提供することができる。また、通信媒体により伝送して各種装置に提供することも可能である。コンピュータは、記録媒体に記録されたプログラムを読み込み、または通信媒体を介してプログラムを受信し、このプログラムによって動作が制御されることにより、上述した処理を実行する。 Further, the process described in the above-described embodiment is a recording medium such as a magnetic disk (flexible disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), a semiconductor memory, etc., as a program that can be executed by a computer. Can be provided to various devices by writing to. It is also possible to transmit it through a communication medium and provide it to various devices. The computer reads the program recorded on the recording medium or receives the program via the communication medium, and the operation is controlled by the program to execute the above-mentioned processing.

10…オーダーステーション、12…POS端末、14…キッチンプリンタ、16…ホールコントローラ、18(18-1,…,18-m)…アクセスポイント、20(20-1,…,20-n)…ハンディターミナル、22(22-1,…,22-x)…注文受付端末、24(24-1,…,24-x)…テーブルロボット、26(26-1,…,26-y)…フロアロボット。

10 ... order station, 12 ... POS terminal, 14 ... kitchen printer, 16 ... hall controller, 18 (18-1, ..., 18-m) ... access point, 20 (20-1, ..., 20-n) ... handy Terminal, 22 (22-1, ..., 22-x) ... Order reception terminal, 24 (24-1, ..., 24-x) ... Table robot, 26 (26-1, ..., 26-y) ... Floor robot ..

本発明の実施形態は、情報処理装置、及びシステムに関する。 Embodiments of the present invention relate to information processing devices and systems .

本発明が解決しようとする課題は、店舗内で移動するロボットの制御を容易にすることが可能な情報処理装置、及びシステムを提供することである。 An object to be solved by the present invention is to provide an information processing device and a system capable of facilitating control of a robot moving in a store.

実施形態によれば、情報処理装置は、受信手段、第1表示手段、指示入力手段、出力手段、第2表示手段を有する。受信手段は、店舗内に配置された複数のテーブルのそれぞれにおいて撮像された撮像データを入力する。第1表示手段は、前記複数のテーブルの何れかに対応する前記撮像データをもとに映像を表示させる。指示入力手段は、自律走行して店舗内を移動する機能を有するロボットに対する動作目的に対応する動作指示を入力する。出力手段は、前記動作指示に応じて、前記表示手段により表示された映像に対応するテーブルまで移動する移動指示を前記ロボットに出力する。第2表示手段は、前記出力手段により出力された移動指示に応じて移動する前記ロボットの前記店舗内の位置と共に前記動作目的を示す情報を表示させる。 According to the embodiment, the information processing apparatus includes a receiving means, a first display means, an instruction input means, an output means , and a second display means . The receiving means inputs the imaging data captured in each of the plurality of tables arranged in the store. The first display means displays an image based on the image pickup data corresponding to any of the plurality of tables. The instruction input means inputs an operation instruction corresponding to an operation purpose for a robot having a function of autonomously traveling and moving in the store . The output means outputs to the robot a movement instruction to move to the table corresponding to the image displayed by the display means in response to the operation instruction. The second display means displays information indicating the operation purpose together with the position in the store of the robot that moves in response to the movement instruction output by the output means.

このようにして、第1実施形態の注文処理システムでは、各テーブルに設置されたテーブルロボット24によって撮影された映像を、ホールコントローラ16において従業員が確認して、フロアロボット26に対して映像の表示対象として選択されたテーブルに指示することができる。ホールコントローラ16では、座席状況を示す画面D1において任意にテーブルを選択して、詳細画面D2の映像表示エリアD22において映像を表示させることができる。従って、テーブル毎に、商品の消費状況や客の状態などを確認して、簡単な操作によって店舗内で移動するフロアロボット26を適切なタイミングで移動させることができる。注文処理システムでは、ホールコントローラ16によって複数台のフロアロボット26に対して各種の指示を出力させ、またその動作状況を示す画面D4において一括して表示させるので管理を容易にすることができる。 In this way, in the order processing system of the first embodiment, the employee confirms the image taken by the table robot 24 installed on each table on the hall controller 16 and displays the image on the floor robot 26. It is possible to instruct the table selected as the display target. In the hall controller 16, a table can be arbitrarily selected on the screen D1 showing the seat status, and an image can be displayed in the image display area D22 of the detail screen D2. Therefore, the floor robot 26 that moves in the store can be moved at an appropriate timing by checking the consumption status of the product, the state of the customer, and the like for each table. In the order processing system, various instructions are output to a plurality of floor robots 26 by the hall controller 16 and collectively displayed on the screen D4 showing the operation status, so that management can be facilitated.

Claims (5)

店舗内に配置された複数のテーブルのそれぞれにおいて撮像された撮像データを入力する入力手段と、
前記複数のテーブルの何れかに対応する前記撮像データをもとに映像を表示する表示手段と、
移動する機能を有するロボットに対する指示を入力する指示入力手段と、
前記指示に応じて、前記表示手段により表示された映像に対応するテーブルまで移動する指示を前記ロボットに出力する出力手段と
を有する情報処理装置。
An input means for inputting image pickup data captured in each of a plurality of tables arranged in the store, and an input means.
A display means for displaying an image based on the image pickup data corresponding to any of the plurality of tables, and a display means.
An instruction input means for inputting an instruction to a robot having a moving function, and an instruction input means.
An information processing device having an output means for outputting an instruction to move to a table corresponding to an image displayed by the display means to the robot in response to the instruction.
前記出力手段は、前記ロボットに対して、商品を前記テーブルまで運ぶ配膳、あるいは前記テーブルから物品を回収する片付けの少なくとも一方の動作を指示する請求項1記載の情報処理装置。 The information processing device according to claim 1, wherein the output means instructs the robot to perform at least one operation of serving a product to the table or collecting an article from the table. 店舗内に配置されたテーブル上の商品が配置される範囲を撮像範囲として撮像された撮像データを入力する入力手段と、
前記撮像データをもとに、前記商品の状況を検出する検出手段と、
前記商品の状況が予め設定された条件に該当する場合に、移動する機能を有するロボットに対する指示を出力する出力手段と
を有する情報処理装置。
An input means for inputting image pickup data, with the range in which the products on the table arranged in the store are arranged as the image pickup range, and
A detection means for detecting the status of the product based on the imaged data,
An information processing device having an output means for outputting an instruction to a robot having a moving function when the condition of the product corresponds to a preset condition.
前記検出手段は、前記商品の残量が所定値より少ない状態を検出し、
前記出力手段は、前記商品の残量が前記所定値より少ない場合に、前記ロボットに対して、前記撮像データが撮像されたテーブルまで移動する指示を出力する請求項3記載の情報処理装置。
The detection means detects a state in which the remaining amount of the product is less than a predetermined value, and
The information processing device according to claim 3, wherein the output means outputs an instruction to the robot to move to a table in which the imaging data is captured when the remaining amount of the product is less than the predetermined value.
コンピュータを、
店舗内に配置された複数のテーブルのそれぞれにおいて撮像された撮像データを入力する入力手段と、
前記複数のテーブルの何れかに対応する前記撮像データをもとに映像を表示させる表示手段と、
移動する機能を有するロボットに対する指示を入力する指示入力手段と、
前記指示に応じて、前記表示手段により表示された映像に対応するテーブルまで移動する指示を前記ロボットに出力する出力手段として機能させるための情報処理プログラム。
Computer,
An input means for inputting image pickup data captured in each of a plurality of tables arranged in the store, and an input means.
A display means for displaying an image based on the image pickup data corresponding to any of the plurality of tables, and a display means.
An instruction input means for inputting an instruction to a robot having a moving function, and an instruction input means.
An information processing program for functioning as an output means for outputting an instruction to move to a table corresponding to an image displayed by the display means to the robot in response to the instruction.
JP2022022333A 2018-03-02 2022-02-16 Information processing device and system Active JP7242927B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022022333A JP7242927B2 (en) 2018-03-02 2022-02-16 Information processing device and system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018037850A JP2019153070A (en) 2018-03-02 2018-03-02 Information processing apparatus and information processing program
JP2022022333A JP7242927B2 (en) 2018-03-02 2022-02-16 Information processing device and system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018037850A Division JP2019153070A (en) 2018-03-02 2018-03-02 Information processing apparatus and information processing program

Publications (2)

Publication Number Publication Date
JP2022063323A true JP2022063323A (en) 2022-04-21
JP7242927B2 JP7242927B2 (en) 2023-03-20

Family

ID=87852598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022022333A Active JP7242927B2 (en) 2018-03-02 2022-02-16 Information processing device and system

Country Status (1)

Country Link
JP (1) JP7242927B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004252497A (en) * 2002-01-15 2004-09-09 Masanobu Kujirada Method and system for providing dish or drink in restaurant
JP2007109072A (en) * 2005-10-14 2007-04-26 Matorikkusu:Kk Unmanned sale system
CN101661098A (en) * 2009-09-10 2010-03-03 上海交通大学 Multi-robot automatic locating system for robot restaurant
KR20170112487A (en) * 2016-03-31 2017-10-12 경남대학교 산학협력단 Intelligent service robot system for restaurant

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004252497A (en) * 2002-01-15 2004-09-09 Masanobu Kujirada Method and system for providing dish or drink in restaurant
JP2007109072A (en) * 2005-10-14 2007-04-26 Matorikkusu:Kk Unmanned sale system
CN101661098A (en) * 2009-09-10 2010-03-03 上海交通大学 Multi-robot automatic locating system for robot restaurant
KR20170112487A (en) * 2016-03-31 2017-10-12 경남대학교 산학협력단 Intelligent service robot system for restaurant

Also Published As

Publication number Publication date
JP7242927B2 (en) 2023-03-20

Similar Documents

Publication Publication Date Title
JP2019153070A (en) Information processing apparatus and information processing program
CN110223465B (en) Information processing apparatus and method, computer-readable storage medium, and electronic device
JP6980738B2 (en) Robot for serving food and / or drink
JP6997159B2 (en) Robot for serving food and / or drink
US11775983B2 (en) Method and system of providing service by controlling robot in service area, and robot implementing thereof
CN108175227B (en) Goods shelf control method and device and electronic equipment
US10954067B1 (en) System and method of providing delivery of items from one container to another container in a hybrid environment
JP2020502649A (en) Intelligent service robot and related systems and methods
US20210154856A1 (en) Conveyance system, trained model generation method, trained model, control method, and program
US11427405B1 (en) System and method of retrieving containers in a hybrid environment
CN112506191A (en) Automatic meal distribution method and system, robot and storage medium
WO2014033979A1 (en) Information provision device, information provision method, and program
KR20240004139A (en) Method, system, and non-transitory computer-readable recording medium for controlling a serving robot
JP2022063323A (en) Information processor and system
US11597596B1 (en) System and method of providing an elevator system for mobile robots
JP2023020774A (en) Method for controlling serving robot, system and non-transitory computer-readable recording medium
WO2024084653A1 (en) Serving robot, serving system, and serving method
JP7470464B2 (en) Levitation mobile platform and program for the same
KR102668631B1 (en) Method, computing device and computer program for controlling automatic return of a serving robot
US20210090148A1 (en) Notification system and notification program
JP7427753B1 (en) Store management server, program, and store management method
JP7290842B2 (en) Information processing system, information processing system control method, and program
JP2023518781A (en) Interlocking method and system for ordering system and mobile robot
US20230281587A1 (en) Mobile sales device and mobile sales system
JP2023037716A (en) Program, electronic apparatus control method, and electronic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220325

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230308

R150 Certificate of patent or registration of utility model

Ref document number: 7242927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150