JP7242927B2 - 情報処理装置、及びシステム - Google Patents

情報処理装置、及びシステム Download PDF

Info

Publication number
JP7242927B2
JP7242927B2 JP2022022333A JP2022022333A JP7242927B2 JP 7242927 B2 JP7242927 B2 JP 7242927B2 JP 2022022333 A JP2022022333 A JP 2022022333A JP 2022022333 A JP2022022333 A JP 2022022333A JP 7242927 B2 JP7242927 B2 JP 7242927B2
Authority
JP
Japan
Prior art keywords
robot
image
floor
instruction
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022022333A
Other languages
English (en)
Other versions
JP2022063323A (ja
Inventor
元信 川村
匡史 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018037850A external-priority patent/JP2019153070A/ja
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2022022333A priority Critical patent/JP7242927B2/ja
Publication of JP2022063323A publication Critical patent/JP2022063323A/ja
Application granted granted Critical
Publication of JP7242927B2 publication Critical patent/JP7242927B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、情報処理装置、及びシステムに関する。
近年、飲食店等において、料理や飲み物を厨房から客がいる座席まで運ぶ作業を、店員に代わって、自走するロボットにより実行させることが行われている。ロボットは、例えば料理や飲み物がトレイに乗せられた後、従業員のボタンに対する入力操作に応じて走行を開始する。ロボットは、指定された座席までの経路に従って走行し、料理や飲み物を座席まで運ぶ。
従来のロボットは、ロボットに設けられたボタンに対する入力操作に応じて動作する。従って、ロボットを利用する場合には、従業員がロボットの近くにいなければならない。また、ロボットが走行を開始した後、従業員は、ロボットの動作状況を把握することが困難となっていた。
特開2009-172410号公報
本発明が解決しようとする課題は、店舗内で移動するロボットの制御を容易にすることが可能な情報処理装置、及びシステムを提供することである。
実施形態によれば、情報処理装置は、受信手段、第1表示手段、指示入力手段、出力手段、第2表示手段を有する。受信手段は、店舗内に配置された複数のテーブルのそれぞれにおいて撮像された撮像データを入力する。第1表示手段は、前記複数のテーブルの何れかに対応する前記撮像データをもとに映像を表示させる。指示入力手段は、自律走行して店舗内を移動する機能を有するロボットに対する動作目的に対応する動作指示を入力する。出力手段は、前記動作指示に応じて、前記表示手段により表示された映像に対応するテーブルまで移動する移動指示を前記ロボットに出力する。第2表示手段は、前記出力手段により出力された移動指示に応じて移動する前記ロボットの前記店舗内の位置と共に前記動作目的を示す情報を表示させる。
本実施形態の注文処理システムの構成を示すブロック図。 本実施形態におけるホールコントローラの要部構成を示すブロック図。 本実施形態における注文受付端末の要部構成を示すブロック図。 本実施形態におけるテーブルロボットの要部構成を示すブロック図。 本実施形態における注文受付端末とテーブルロボットの外観を示す図。 第1実施形態におけるホールコントローラとテーブルロボットの処理を示すフローチャート。 第1実施形態における座席状況を示す画面の一例を示す図。 第1実施形態における詳細画面(座席状況詳細)の一例を示す図。 第1実施形態におけるフロアロボット26の選択画面の一例を示す図。 第1実施形態における座席状況を示す画面の一例を示す図。 第1実施形態におけるハンディターミナルとフロアロボットの処理を示すフローチャート。 第2実施形態におけるテーブルロボットとホールコントローラの処理を示すフローチャート。 ホールコントローラによる比較処理を示すフローチャート。 第1画像と第2画像を概念的に示す図。 第2実施形態におけるハンディターミナルとフロアロボットの処理を示すフローチャート。 第3実施形態におけるテーブルロボットの処理を示すフローチャート。 第3実施形態におけるハンディターミナルとフロアロボットの処理を示すフローチャート。
以下、本実施形態について、図面を参照しながら説明する。
図1は、本実施形態の注文処理システムの構成を示すブロック図である。注文処理システムは、例えば飲食店に設置されて稼働する。
注文処理システムは、オーダーステーション10、POS(Point Of Sales)端末12、キッチンプリンタ14、ホールコントローラ16、及び少なくとも1つの複数のアクセスポイント(AP)18(18-1,…,18-m)がLAN(Local Area Network)等のネットワーク19を介して相互に接続される。また、注文処理システムは、アクセスポイント18との無線通信を介して、タブレット端末16K、複数のハンディターミナル20(20-1,…,20-n)、店舗内のテーブル毎に設置された複数台の注文受付端末22(22-1,…,22-x)及び複数台のテーブルロボット24(24-1,…,24-x)、少なくとも1台のフロアロボット26(26-1,…,26-y)が、ネットワーク19と接続される。
オーダーステーション10は、ハンディターミナル20あるいは注文受付端末22から受信した注文情報に基づいて、キッチンプリンタ14に調理指示を送信する。また、配膳完了をハンディターミナル20から受信した場合、注文情報を売り上げ情報としてPOS端末12に送信する。
POS端末12は、例えば会計場に配置され、客の飲食代金を精算する。POS端末12は、販売情報を登録、処理し、一取引ずつ会計処理を行う。販売情報には、顧客ごとの商品の売り上げ明細の情報が含まれる。
キッチンプリンタ14は、例えば調理場に配置される。キッチンプリンタ14は、オーダーステーション10から受信した注文情報に基づいて、客が注文した商品(メニュー品目)やテーブルの識別番号を含む注文伝票を印刷することで調理指示を出力する。
ホールコントローラ16は、フロアロボット26の制御と管理のための処理をする情報処理装置として動作するコンピュータである。ホールコントローラ16は、店舗内の客の状況を管理して、客の状況に応じて注文処理システムを構成する各装置を制御する。ホールコントローラ16は、例えば客が着席しているテーブルの状況、客情報(人数、性別、年代、職業など)の管理、注文履歴の管理、利用時間(着席からの経過時間、コース設定の終了時刻までの残り時間など)などを管理する。ホールコントローラ16は、客の状況を表す画面を表示する。店舗の従業員は、ホールコントローラ16の画面を視認する。また、ホールコントローラ16は、少なくとも商品(飲み物、食べ物など)が配置されたテーブルを含む範囲を撮像範囲として撮像された撮像データを入力し、撮像データをもとにフロアロボット26の動作を制御するための処理を実行する。ホールコントローラ16は、例えばテーブルに設置されたテーブルロボット24(あるいは注文受付端末22でも良い)に設けられたカメラにより撮像された撮像データを入力する。撮像データは、静止画、あるいは動画(映像)の何れであっても良い。ホールコントローラ16は、撮像データをもとに映像(または画像)を表示させ、この映像(または画像)を確認した従業員による入力操作に応じて、フロアロボット26に対して動作を制御する指示を出力することができる(第1実施形態)。また、ホールコントローラ16は、入力された撮像データについて画像処理をすることで商品の状況、例えば商品の残量、商品の提供に用いた器(グラス、皿など)の状態を検出する。ホールコントローラ16は、この検出結果をもとに適切なタイミングでフロアロボット26に対して動作を制御する指示を出力することができる(第2実施形態)。
タブレット端末16Kは、ホールコントローラ16の入出力装置として使用される。タブレット端末16Kは、アクセスポイント18とネットワーク19を介して、ホールコントローラ16と通信する。なお、タブレット端末16Kは、アクセスポイント18を介さないで、直接、ホールコントローラ16と無線通信する構成としても良い。また、タブレット端末16Kは、1台に限らず、複数台が設けられていても良い。
また、図1では、ネットワーク19に接続されたコンピュータによりホールコントローラ16が実現される例を示しているが、後述するホールコントローラ16の処理をタブレット端末16Kによって実行するものとしても良い。さらに、1台のホールコントローラ16(あるいはタブレット端末16K)が単独で後述する処理を実行するだけでなく、他の装置(複数のコンピュータ、あるいはオーダーステーション10)と協働して実行する構成としても良い。したがって、本実施形態において、ホールコントローラ16は、ネットワーク19に接続されたコンピュータにより実現される形態及びタブレット端末16Kにより実現される形態のいずれであってもよい。
アクセスポイント18は、タブレット端末16K、ハンディターミナル20、注文受付端末22、テーブルロボット24、フロアロボット26との無線通信を制御する無線通信装置である。アクセスポイント18は、例えば店内の天井などに少なくとも1台が配置される。
ハンディターミナル20は、店員用の端末である。ハンディターミナル20は、注文の入力、来店した客を登録するチェックイン処理、客によって注文された商品の配膳完了の入力、ホールコントローラ16からの通知に応じたメッセージ出力などを行う。ハンディターミナル20は、入力された注文に応じた注文情報、配膳完了の商品を示す商品情報などをオーダーステーション10に送信する。また、ハンディターミナル20は、店員の操作等に応じて、ホールコントローラ16に対して各種の通知を送信することができる。
注文受付端末22(22-1,…,22-x)は、例えば店内の各テーブルT(T-1,…,T-x)に配置される。注文受付端末22は、メニューを表示するとともに、客からの商品(メニュー品目)の注文を受け付ける。注文受付端末22は入力した注文情報をオーダーステーション10に送信する。注文受付端末22は、ホールコントローラ16から出力されたレコメンド情報に応じた、お勧め商品の画面などを表示する。
テーブルロボット24(24-1,…,24-x)は、例えば店内の各テーブルT(T-1,…,T-x)に配置される。テーブルロボット24は、客とコミュニケーションをとるためのロボットである。テーブルロボット24は、カメラにより少なくとも商品(飲み物、食べ物など)が配置されたテーブルを含む範囲を撮像範囲として撮像された撮像データを入力してホールコントローラ16に送信する出力機能を有する。また、テーブルロボット24は、マイクから入力された音声の認識機能を有し、客との簡単な会話、客からの音声による商品の注文受付などをする。テーブルロボット24は、スピーカから客に対するメッセージを出力する音声出力機能が設けられ、客との会話のために音声の認識機能により認識された音声に対応する応答メッセージの出力、ホールコントローラ16あるいはオーダーステーション10からの通知に応じたメッセージの出力などを実行する。
なお、図1では、注文受付端末22とテーブルロボット24は、別の装置として実現されているが、1つの装置によって実現することも可能である。
また、ホールコントローラ16に設けられたフロアロボット26を制御する機能は、注文受付端末22あるいはテーブルロボット24によって実現することも可能である。すなわち、注文受付端末22あるいはテーブルロボット24(さらには注文受付端末22とテーブルロボット24を組み合わせた構成)を、フロアロボット26の制御と管理のための処理をする情報処理装置として動作させるようにしても良い(第3実施形態)。
フロアロボット26は、店舗内で商品の各テーブルへの配膳、及び各テーブルから食器、グラス、ゴミ等の物品の回収(バッシング)のために使用されるロボットである。フロアロボット26は、食器等を載置することができる、少なくとも1つの載置台が設けられている。フロアロボット26は、自律走行する機能が設けられており、店舗内のテーブルの配置に応じて設定された経路に応じて、指定された目的とするテーブルの位置まで走行することができる。フロアロボット26には、例えば衝突防止センサが設けられ、障害物を回避しながら走行する。
フロアロボット26は、アクセスポイント18を介した無線通信機能が設けられており、例えば客により注文受付端末22あるいはテーブルロボット24から入力された指示、ホールコントローラ16からの客の状況に応じた指示、あるいは従業員による操作により入力された指示を受信して、指示に応じた動作をすることができる。また、フロアロボット26は、走行に伴って、現在位置を示す位置データを、アクセスポイント18を介してホールコントローラ16に通知する。ホールコントローラ16は、フロアロボット26から受信される位置データをもとに、例えば店舗のテーブル配置などを表示するフロアマップに、フロアロボット26が走行する経路上における現在位置(動作状況)を示す情報を表示することができる。
フロアロボット26には、客や店員とのコミュニケーションをとるために、タッチパネルなどの入出力装置、カメラにより撮影した画像をもとにした人物認証機能、マイクから入力された音声の認識機能、スピーカから客あるいは店員に対するメッセージを出力する音声出力機能などが設けられる。
図2は、本実施形態におけるホールコントローラ16の要部構成を示すブロック図である。
ホールコントローラ16は、コンピュータによって実現される。ホールコントローラ16は、CPU(Central Processing Unit)16A、ROM(Read Only Memory)16B、RAM(Random Access Memory)16C、記憶装置16D、表示装置16E、入力装置16F、タッチパネル16G、通信装置16H等を有する。
CPU16Aは、ROM16Bあるいは記憶装置16Dに記憶されたプログラムを実行することにより、ホールコントローラ16の各構成を制御する。CPU16Aにより実行されるプログラムには、基本プログラム(OS(Operating System))の他、情報処理装置として動作するための情報処理プログラムが含まれる。CPU16Aは、情報処理プログラムを実行することで店舗内の客の状況を管理する。CPU16Aは、テーブルロボット24(あるいは注文受付端末22)から送信される撮像データを、通信装置16Hを通じて入力する入力機能、入力された撮像データをもとに画像処理をすることで商品(飲み物、食べ物)の状況を検出する検出機能、検出機能の検出結果に応じてフロアロボット26を制御するための指示を出力する出力機能を実現する。検出機能により検出される商品の状況としては、商品の残量、商品の提供に用いた器(グラス、皿など)の状態などを検出することかできる。商品の提供に用いた器の状態としては、例えば皿が重ね合わされている、テーブル外に置かれているなど、客が器を不要としている状態を検出することが望ましい。
また、CPU16Aは、例えば着席しているテーブルの状況、客情報(人数、性別、年代、職業など)の管理、注文履歴の管理、利用時間(着席からの経過時間、コース設定の終了時刻までの残り時間など)などの情報をもとに、客に応じたレコメンド情報を決定するレコメンド情報抽出処理を実行する。
ROM16Bは、CPU16Aが実行するプログラムなどを記憶する。RAM16Cは、各種のワークメモリエリアを形成する。記憶装置16Dは、例えばHDD(Hard disk drive)、SSD(Solid State Drive)などであり、各種プログラムや各種データを記憶する。
表示装置16Eは、例えばLCD(Liquid Crystal Display)である。入力装置16Fは、例えばキーボード、マウスなどのポインティングデバイスである。タッチパネル16Gは、表示及びタッチ操作による入力をする。
通信装置16Hは、例えばネットワーク19を通じた各装置との通信を制御する。また、通信装置16Hは、無線通信する機能が含まれていても良い。
図3は、本実施形態における注文受付端末22の要部構成を示すブロック図である。
注文受付端末22は、例えばタブレット型のコンピュータによって実現される。注文受付端末22は、CPU22A、ROM22B、RAM22C、記憶装置22D、タッチパネル22G、通信装置22H等を有する。
CPU22Aは、ROM22Bあるいは記憶装置22Dに記憶されたプログラムを実行することにより、注文受付端末22の各構成を制御する。CPU22Aにより実行されるプログラムには、基本プログラム(OS(Operating System))の他、注文受付端末22として動作するための注文受付プログラムが含まれる。CPU22Aは、注文受付プログラムを実行することで、メニュー画面の表示、客の入力操作の受け付け、客の入力操作によってメニュー画面から選択された商品に応じた注文情報のオーダーステーション10への送信、ホールコントローラ16(あるいはオーダーステーション10)から送信されるレコメンド情報に応じたお勧め商品の通知(表示または音声出力)などの処理を実行する。CPU22Aは、各処理に応じた画面(GUI(Graphical User Interface))をタッチパネル22Gにおいて表示させる。
ROM22Bは、CPU22Aが実行するプログラムなどを記憶する。RAM22Cは、各種のワークメモリエリアを形成する。記憶装置22Dは、例えばHDD、SSDなどであり、各種プログラムや各種データを記憶する。タッチパネル22Gは、表示及びタッチ操作による入力をする。通信装置22Hは、アクセスポイント18との無線通信を制御する。
なお、注文受付端末22は、後述するテーブルロボット24と同様の機能を設けて、テーブルロボット24の設置を省くことも可能である。この場合、注文受付端末22には、カメラ、マイク、スピーカが設けられ、それぞれに対する後述するテーブルロボット24と同様の制御機能が設けられるものとする。
図4は、本実施形態におけるテーブルロボット24の要部構成を示すブロック図である。
テーブルロボット24は、コンピュータの機能が設けられる。テーブルロボット24は、CPU24A、ROM24B、RAM24C、記憶装置24D、マイク24E、スピーカ24F、カメラ24G、通信装置24H、駆動機構24L等を有する。
CPU24Aは、ROM24Bあるいは記憶装置24Dに記憶されたプログラムを実行することにより、テーブルロボット24の各構成を制御する。CPU24Aにより実行されるプログラムには、基本プログラム(OS(Operating System))の他、テーブルロボット24として動作するための制御プログラムが含まれる。CPU24Aは、制御プログラムを実行することで、カメラ24Gの動作を制御し、カメラ24Gにより撮像された撮像データを通信装置24Hを通じてホールコントローラ16に出力する出力機能を実現する。また、CPU24Aは、制御プログラムを実行することで、客とコミュニケーションをとるための動作を制御する。客とコミュニケーションには、音声(会話)によるもの、動作によるものなどがある。CPU24Aは、客と音声(会話)によりコミュニケーションするために、マイク24Eから入力された音声の認識機能、音声をスピーカ24Fから出力させる音声出力機能を実行する。CPU24Aは、音声の認識機能により、客からの会話のための音声、あるいは商品を注文するための音声について認識することができる。音声の認識機能では、例えば予め決められた音声コマンド(単語、あるいは文章)を認識して、音声コマンドに応じた処理を実行することができる。また、CPU24Aは、音声出力機能により、音声の認識機能により認識された会話のための音声に対応する応答メッセージの出力、あるいはホールコントローラ16あるいはオーダーステーション10からの通知に応じたメッセージの出力等をすることができる。
ROM24Bは、CPU24Aが実行するプログラムなどを記憶する。RAM24Cは、各種のワークメモリエリアを形成する。記憶装置24Dは、例えばHDD、SSDなどであり、各種プログラムや各種データを記憶する。
カメラ24Gは、CPU24Aの制御に応じて撮像を実行し、撮像データを出力する。カメラ24Gは、静止画、あるいは動画(映像)を撮像することができる。通信装置24Hは、アクセスポイント18との無線通信を制御する。
CPU24Aは、駆動機構24Lを動作させる。テーブルロボット24は、複数の筐体(例えば上部筐体と下部筐体)が組み合わせて構成され、一部の筐体を駆動機構24Lによって動くように構成される。CPU24Aは、例えば客とのコミュニケーションのために、定常状態、あるいは音声による会話、商品の注文、各種メッセージ音声の出力のタイミングに合わせて駆動機構24Lを駆動させる。また、CPU24Aは、カメラ24Gによる撮像範囲を変更するために、カメラ24Gが設けられた筐体の向きを変更するように駆動機構24Lを駆動させることができる。
駆動機構24Lは、テーブルロボット24を構成する一部筐体を動かすための機械構造である。
図5は、本実施形態における注文受付端末22とテーブルロボット24の外観を示す図である。図5は、注文受付端末22とテーブルロボット24とがテーブルに並べて配置された例を示している。
注文受付端末22は、基本的にテーブル上のクレードルに設置されており、必要に応じてクレードルから取り外して客が保持した状態で使用することができる。
テーブルロボット24は、客とコミュニケーションをとるために使用されるため、テーブルに着席した客と近い位置に設置されることが望ましい。また、テーブルロボット24は、少なくとも商品(飲み物、食べ物など)が配置されたテーブルを含む範囲を撮像範囲として撮像を実行する。例えば、テーブルロボット24は、商品が載置されるテーブル上だけでなく、テーブルに着席した客を含めた範囲を撮像範囲としても良い。このため、テーブルロボット24は、カメラ24Gにより目的とする撮像範囲を撮像可能とする位置に設置される。
図5に示すテーブルロボット24は、例えばカメラ24Gを上部筐体に設置して、駆動機構24Lにより上部筐体を所定範囲内で左右上下に動作させながら、カメラ24Gによる撮像を実行させることもできる。これにより、カメラ24Gの向きを固定した場合より広い範囲を撮像範囲とすることが可能である。
次に、本実施形態における注文処理システムの動作について説明する。
注文処理システムでは、来店した客が何れかのテーブルに着席すると、客を登録するチェックイン処理が実行される。チェックイン処理では、テーブル番号の登録、客情報(人数、性別、年代、職業など)、注文コース(提供される複数の商品、時間等が予め決められている)の入力などが行われる。客情報は、例えばハンディターミナル20を所持する店員が、ハンディターミナル20に対する操作によって入力されても良いし、客による注文受付端末22に対する操作によって入力しても良い。
また、テーブルロボット24のカメラによって撮影された映像(撮像データ)をホールコントローラ16に送信して、ホールコントローラ16(あるいはタブレット端末16K)において映像を表示させることで、映像を確認した店員によって客情報を入力させても良い。さらに、ホールコントローラ16において客を撮像した画像に対して人物認証処理を実行し、人数、性別、年代、職業などを検出して、客情報として入力するようにしても良い。
客は、テーブルに着席した後、商品を注文する場合には、ハンディターミナル20を所持する店員に伝える他、注文受付端末22を利用することができる。注文受付端末22は、タッチパネル22Gにメニューを表示し、メニューからタッチ操作によって指定された商品に応じた注文情報をオーダーステーション10に送信する。なお、メニューは、全ての商品を分類して提示する通常メニュー、店舗側で予め用意した特定のお勧め商品を含むお勧めメニューなどが、客の入力操作に応じて切り替えて表示される。
注文された商品は、店員によってテーブルに運ばれる他、フロアロボット26を利用して運ばれる。フロアロボット26は、従業員による入力操作、あるいはホールコントローラ16(またはテーブルロボット24)からの指示に応じて、例えば載置台に注文された商品、例えば飲み物のグラス、食べ物の皿などが載置された後、配膳先のテーブルが指示されることで、自走して指示されたテーブルまで運ぶことができる。
ホールコントローラ16は、客が着席したテーブルの状況を、テーブルロボット24のカメラ24Gによって撮像された画像(映像)によって確認することができる。本実施形態では、ホールコントローラ16は、配膳された商品(飲み物、食べ物)の飲食状況、すなわち客による商品の消費の状況を撮像された映像(画像)をもとに判別し、適切なタイミングで食器、グラス、ゴミ等の物品を回収(バッシング)するために、フロアロボット26を映像が撮像されたテーブルに移動する指示を出力する。以下、フロアロボット26の動作を制御する指示を出力するための処理(第1実施形態、第2実施形態、第3実施形態)について説明する。
(第1実施形態)
図6(A)は、第1実施形態におけるホールコントローラ16の処理を示すフローチャートである。図6(B)は、第1実施形態におけるテーブルロボット24の処理を示すフローチャートである。注文受付端末22がテーブルロボット24の機能を代替する場合には、注文受付端末22により図6(B)に示すフローチャートの処理が実行される。
第1実施形態では、テーブルロボット24(あるいは注文受付端末22)のカメラ24Gによって、少なくとも商品が配置されたテーブル上を撮像範囲とした映像を撮像し、この映像をホールコントローラ16において店舗の従業員が確認できるようにする。ホールコントローラ16は、映像を確認した従業員による入力操作に応じて、フロアロボット26に対して動作を制御する指示を出力する。
ホールコントローラ16のCPU16Aは、ハンディターミナル20、注文受付端末22、テーブルロボット24、フロアロボット26等からの入力に基づいて、店舗内の状況を管理している。CPU16Aは、従業員による入力操作に応じて、管理状況を示す画面を表示することができる。
CPU16Aは、従業員による入力操作に応じて、例えば店舗内のテーブルの配置を示すフロアマップ(座席マップ)を含む、座席状況を示す画面を表示させる(ActA1)。
図7は、ホールコントローラ16の表示装置16E、タッチパネル16G、あるいはタブレット端末16Kに表示される座席状況を示す画面D1の一例を示す図である。
図7に示す座席状況を示す画面D1では、例えば、切り替えボタンD11、テーブルレイアウトD12、フロアロボットマークD13、テーブルマークD14(A01~A10)、テーブルロボットマークD15、コミュニケーションマークD16、テーブルレイアウトD19が表示される。切り替えボタンD11は、画面の切り替えを指示するためのもので、例えば図7に示す画面に対応する「座席状況」ボタンの他、「調理状況」「シフト管理」「各種業務」のそれぞれに対応するボタンが含まれる。テーブルレイアウトD12は、店舗内の表示対象とする範囲内の複数のテーブルの配置を示す。図7では、テーブル番号A01~A10,B10,B12の12台のテーブルを表示対象としている例を示している。テーブルレイアウトD12は、入力操作によって変更される表示対象とする範囲に合わせて変更される。フロアロボットマークD13は、店舗内で走行するフロアロボット26の位置と動作状況を示すためのマークである。図7に示す例では、店舗内で3台のフロアロボット26が使用されることを示している。フロアロボットマークD13は、フロアロボット26が店舗内を走行するのに合わせて、現在位置に相当する位置に表示される。テーブルマークD14(A01~A10,B10,B12)は、個々のテーブルを示すもので、管理されている客情報などが表示される。テーブルロボットマークD15は、テーブルにテーブルロボット24が配置されていることを示す。コミュニケーションマークD16は、テーブルロボット24と客とがコミュニケーションした数を示す。テーブルロボット24と客とのコミュニケーションには、例えばテーブルロボット24との会話(出力される音声メッセージに対する応答)、テーブルロボット24からの商品の注文などを含む。テーブルレイアウトD19は、店舗内の全てのテーブルの配置を示し、テーブルレイアウトD12が表示されている範囲が明示される。
ホールコントローラ16のCPU16Aは、何れかのテーブルマークD14を選択する操作を検出した場合(ActA2、Yes)、この検出したテーブルマークD14に対応するテーブルに設置されたテーブルロボット24に対して映像送信指示を送信する(ActA3)。また、CPU16Aは、該当するテーブルについての詳細画面を表示装置16E、タッチパネル16Gあるいはタブレット端末16Kに表示させる(ActA4)。
一方、テーブルロボット24は、ホールコントローラ16から映像送信指示を受信すると(ActB1、Yes)、カメラ24Gによる少なくとも商品が配置されたテーブル上を撮像範囲として撮像を実行させる。テーブルロボット24は、撮像データを、例えばテーブル番号を示すデータを付加して、通信装置24Hを通じてホールコントローラ16に送信する(ActB2)。
ホールコントローラ16のCPU16Aは、テーブルロボット24から映像を受信し(ActA5)、この受信した映像を詳細画面において表示させる(ActA6)。
図8は、詳細画面D2(座席状況詳細)の一例を示す図である。
図8に示す詳細画面D2では、例えば、客管理情報D21、映像表示エリアD22、複数の機能選択用のボタンD23~D29が含まれる。客管理情報D21は、客情報を含む、客の現在の状況を示す情報(注文コース、コースで決められた残り時間)などを示す。映像表示エリアD22は、テーブルロボット24から受信される撮像データに応じた映像が表示される。CPU16Aは、映像表示エリアD22に対する操作によって、映像の表示対象範囲を変更することができる。例えば、初期状態では、テーブルロボット24によって撮像された映像のうち、テーブル上の範囲の映像を表示させる。次に、例えば映像表示エリアD22に対するタッチ操作があった場合には、テーブル全体を含む映像を表示させ、さらにタッチ操作があった場合には、テーブルに着席している客を含む映像を表示させる。これにより、従業員が任意の範囲の映像を表示させて、商品の消費状況を含む客の状況を映像から確認することができる。
複数の機能選択用のボタンD23~D29には、例えば、おすすめメニューボタンD23、追加メニューボタンD24、ラストオーダーボタンD25、注文履歴ボタンD26、配膳ボタンD27、バッシングボタンD28、OKボタンD29が含まれる。おすすめメニューボタンD23、追加メニューボタンD24及びラストオーダーボタンD25は、従業員による入力操作に応じて、レコメンド情報を注文受付端末22に出力させるためのボタンである。注文履歴ボタンD26は、例えば本日分の注文履歴を一覧表示させるためのボタンである。
配膳ボタンD27は、フロアロボット26に対して商品の配膳を指示するためのボタンである。バッシングボタンD28は、フロアロボット26に対して、テーブルから食器、グラス、ゴミ等を回収(バッシング)するために、指定したテーブルへの移動を指示するためのボタンである。OKボタンD29は、詳細画面D2の表示の終了を指示するためのボタンである。
ホールコントローラ16のCPU16Aは、詳細画面D2に設けられたボタンに対する操作を検出すると、入力操作がフロアロボット26の動作を指示するためのボタン、すなわち、配膳ボタンD27、バッシングボタンD28の何れかのボタンであるかを判別する。ここで、その他のボタンに対する操作であることが判別された場合(ActA7,A9、No)、CPU16Aは、操作されたボタンに応じた他の処理を実行し、詳細画面D2の表示を終了する(ActA10)。
一方、バッシングボタンD28に対する操作(片付け指示)を検出した場合(ActA9、Yes)、CPU16Aは、フロアロボット26に対して、現在、映像の表示対象として選択されているテーブルを移動先として指示すると共に、物品の回収(バッシング)のための移動を指示する(ActA8)。
なお、複数のフロアロボット26が設けられている場合、CPU16Aは、複数のフロアロボット26に対して予め設定された優先順位に基づいて何れかのフロアロボット26を選択して、この選択したフロアロボット26に対して指示を出力しても良い。
また、従業員による入力操作によって複数のフロアロボット26から何れかを選択できるようにしても良い。この場合、例えばバッシングボタンD28の操作に応じて、CPU16Aは、フロアロボット26を選択するための選択画面を表示装置16E、タッチパネル16Gあるいはタブレット端末16Kに表示させる。
図9は、フロアロボット26の選択画面D3の一例を示す図である。
図9に示す選択画面D3では、選択可能なフロアロボット26にそれぞれ対応するフロアロボットマークD31と、フロアロボット26の移動先とするテーブルに対応するテーブルマークD32を明示している。また、操作ガイドメッセージD33として、例えば「バッシングへ行くロボットを選んで下さい」を表示させている。フロアロボットマークD31は、なお、移動中あるいは先に他の指示を受信しているフロアロボット26については選択不可として、このフロアロボット26に対応するフロアロボットマークD31については表示しないものとする。
ホールコントローラ16は、選択画面D3から何れかのフロアロボットマークD31が従業員による操作により選択されると、この選択されたフロアロボットマークD31に対応するフロアロボット26に、移動先とするテーブルと物品の回収(バッシング)を指示する。
なお、CPU16Aは、フロアロボット26に対して動作を制御する指示を出力する場合、店員が所持しているハンディターミナル20に対して、フロアロボット26に対して指示を出力したことを通知する。
同様にして、配膳ボタンD27に対する操作(配膳指示)を検出した場合(ActA7、Yes)、CPU16Aは、フロアロボット26に対して、現在、映像の表示対象として選択されているテーブルを移動先として、商品の配膳のための移動を指示する(ActA8)。
なお、CPU16Aは、詳細画面D2において配膳ボタンD27あるいはバッシングボタンD28が選択された時に、動作可能なフロアロボット26がない場合には、ハンディターミナル20に対して、フロアロボット26が利用できない状態であることを通知する。これにより、フロアロボット26に代わって店員が速やかに対応できるようにする。
また、ホールコントローラ16のCPU16Aは、座席状況を示す画面D1(フロアマップ)を表示する際に(ActA1)、動作中のフロアロボット26があれば、フロアロボット26の動作状況をフロアマップに表示する。
図10は、フロアロボット26の動作状況が表示された座席状況を示す画面D4の一例を示す図である。
座席状況を示す画面D4では、例えば1台のフロアロボット26(R3)が物品の回収(バッシング)のために動作中であることを示している。フロアロボットマークD41では、動作中のフロアロボット26(R3)と対応づけて、動作目的を示す「バッシング中」のテキストが付加されている。なお、配膳のための動作中には「配膳中」のテキストが付加される。また、移動先とするテーブル(A09)のテーブルマークD42までの経路D44が表示されると共に、フロアロボット26(R3)の現在位置を示すフロアロボットマークD43が表示される。フロアロボットマークD43は、フロアロボット26(R3)から受信される現在位置を示す位置データをもとに表示位置が変更され、フロアロボット26(R3)の店舗内における現在位置を示す。
これにより、ホールコントローラ16において表示される座席状況を示す画面D4を確認することにより、従業員は、フロアロボット26の動作状況を容易に把握することができる。
図11(A)は、第1実施形態におけるハンディターミナル20の処理を示すフローチャートである。図11(B)は、第1実施形態におけるフロアロボット26の動作を示すフローチャートである。
ハンディターミナル20は、ホールコントローラ16からの指示を受信すると(ActC1、Yes)、この受信内容に応じた出力をする(ActC2)。例えば、ハンディターミナル20は、表示装置にポップアップ画面を表示させて、ホールコントローラ16からの指示内容を表示する。また、ハンディターミナル20は、出力形態として表示に限らず、音出力、振動発生などによって、ホールコントローラ16からの受信を店員に認識させるようにしても良い。
ハンディターミナル20は、例えば動作中のフロアロボット26を識別する情報(例えば「R3」)、移動先とするテーブルのテーブル番号、移動目的「バッシング」などを表示させることができる。
また、ホールコントローラ16からフロアロボット26が利用できない状態であることが通知された場合、ハンディターミナル20は、フロアロボット26に代わって店員が対応することを要求するメッセージ等を出力する。この場合、前述と同様にして、テーブル番号、移動目的「バッシング」などを表示して、店員が速やかに対応できるようにする。
ハンディターミナル20は、ホールコントローラ16からの指示に応じた表示に対して、店員による入力操作を受け付けると(ActC3、Yes)処理を終了する。例えば、店員は、動作可能なフロアロボット26の情報を確認して、確認済みであることを示す応答を入力する。また、フロアロボット26が利用できない状態であることが通知された場合、店員は、自分が対応することを示す応答、あるいは他の店員(ハンディターミナル20)に対して応援を要求する応答を入力する。
一方、フロアロボット26は、ホールコントローラ16からの指示を受信すると(ActD1、Yes)、移動先を示すテーブル番号をもとに、現在位置から目的とするテーブルまでの経路を設定して、移動制御を開始する。フロアロボット26は、店舗内における走行に伴って、現在位置を示す位置データを、アクセスポイント18を介してホールコントローラ16に通知する。
フロアロボット26は、目的とするテーブルの位置まで移動すると、例えば客に対して目的に応じたメッセージを出力する。
例えば、フロアロボット26は、配膳目的の場合には、例えば音声により「お待たせしました。料理(飲み物)をお取り下さい」のメッセージを出力して、載置台の商品(食べ物、飲み物)を取るように促す。また、音声によるメッセージだけでなく、表示装置にメッセージを表示させることも可能である。同様にして、フロアロボット26は、回収目的の場合には、例えば音声により「不要なグラスやお皿がありましたらお乗せ下さい」のメッセージを出力して、不要な物品を載置台に乗せるように促す。
フロアロボット26は、客による入力操作を受け付けると(ActD3、Yes)、例えば初期位置に戻る、あるいは次の目的とするテーブル位置までの処理を開始する(ActD4)。例えば、フロアロボット26は、配膳時には料理(飲み物)の受け取りが完了したことを示す操作を受け付け、回収時の不要な物品を載置台に乗せたことを示す操作を受け付ける。フロアロボット26は、客からの操作を例えばタッチパネルに対する操作により入力しても良いし、音声コマンド(音声認識)によって入力しても良い。
なお、前述した説明では、フロアロボット26に対して、配膳または片付けの何れか一方の指示をしているが、配膳と片付けの両方を同時にフロアロボット26に対して指示することも可能である。例えば、配膳先のテーブルに移動させて商品を目的とするテーブルに運ばせた後、別のテーブルに片付けのために移動させる。また、片付けのために複数のテーブルを移動先として指示することも可能である。これにより、フロアロボット26を効率的に稼働させることができる。
このようにして、第1実施形態の注文処理システムでは、各テーブルに設置されたテーブルロボット24によって撮影された映像を、ホールコントローラ16において従業員が確認して、フロアロボット26に対して映像の表示対象として選択されたテーブルに指示することができる。ホールコントローラ16では、座席状況を示す画面D1において任意にテーブルを選択して、詳細画面D2の映像表示エリアD22において映像を表示させることができる。従って、テーブル毎に、商品の消費状況や客の状態などを確認して、簡単な操作によって店舗内で移動するフロアロボット26を適切なタイミングで移動させることができる。注文処理システムでは、ホールコントローラ16によって複数台のフロアロボット26に対して各種の指示を出力させ、またその動作状況を示す画面D4において一括して表示させるので管理を容易にすることができる。
(第2実施形態)
図12(A)は、第2実施形態におけるテーブルロボット24の処理を示すフローチャートである。図12(B)は、第2実施形態におけるホールコントローラ16の処理を示すフローチャートである。注文受付端末22がテーブルロボット24の機能を代替する場合には、注文受付端末22により図12(A)に示すフローチャートの処理が実行される。
第2実施形態では、テーブルロボット24(あるいは注文受付端末22)のカメラ24Gによって、少なくとも商品が配置されたテーブル上を撮像範囲とした映像を撮像し、配膳された商品(飲み物、食べ物)の飲食状況、すなわち客による商品の消費の状況(残量が少ない、あるいは残りが無い状態)を撮像された映像をもとに検出する。そして、この検出結果をもとに適切なタイミングでフロアロボット26に対して、物品の回収(バッシング)のための指示を出力する。
テーブルロボット24は、商品がテーブルに配膳された後、カメラ24Gにより撮像を実行して(ActE1)、この撮像された映像の撮像データを、例えばテーブル番号を示すデータを付加して、通信装置24Hを通じてホールコントローラ16に送信する(ActE2)。
ホールコントローラ16のCPU16Aは、テーブルロボット24から送信された撮像データを受信すると(ActF1、Yes)、撮像データをもとに映像を表示させる。例えば、CPU16Aは、第1実施形態と同様にして、詳細画面D2の映像表示エリアD22に表示させる(ActF2)。CPU16Aは、テーブルロボット24から受信される映像から、例えば商品の配膳がされた後に第1画像を抽出して、テーブル番号と対応づけてRAM16Cあるいは記憶装置16Dに記憶させる。ここで、撮像された第1画像は、客により消費されていない商品の初期状態を表している。
また、CPU16Aは、第1画像を記憶させた後、所定時間が経過したことが判別されると(ActF3、Yes)、テーブルロボット24から受信される映像から第2画像を抽出して、第1画像と第2画像とを比較する比較処理を実行する(ActF4)。
なお、所定時間は、予め決められた1つの一定時間としても良いし、客についてチェックイン処理してからの経過時間に応じて変化させても良い。所定時間を変化させる場合、例えば客による飲食のペースが早い、開始直後の時間帯(例えば0~15分)には所定時間を短い時間(例えば3分間)とし、一般的に商品の注文ペースが遅くなる終了近くになるほど段階的に所定時間を長くしていく。例えば、時間帯15~30分では5分間、30~60分間では10分間とする、などとしても良い。これにより、グラスや皿などが空く(飲み物や食べ物が消費される)より適切なタイミングで、フロアロボット26を回収のために移動させるようにし、また商品の消費ペースが遅くなる時間帯では画像処理が必要となる頻度を少なくして、処理負荷を軽減するようにしても良い。
図13は、ホールコントローラ16による比較処理を示すフローチャートである。
まず、CPU16Aは、第1画像が記憶済みであり、第1画像に対する後述するオブジェクト検出が完了しているかを判別する。ここで、第1画像が先に記憶済みでない場合(ActS1、No)、CPU16Aは、第1画像から客に提供された商品に相当するオブジェクト画像(第1オブジェクト)を検出し(ActS2)、第1オブジェクトをRAM16Cあるいは記憶装置16Dに記憶させる(ActS3)。
図14(A)は、第1画像を概念的に示す図である。図14(A)に示すように、テーブルロボット24のカメラ24Gにより撮影された第1画像には、複数の商品のそれぞれに相当する画像が含まれる場合がある。CPU16Aは、各商品に相当する画像をオブジェクトとして検出し、オブジェクト毎に異なる識別ラベルを付与して記憶させる。なお、画像中からオブジェクトを検出する画像処理方法としては、例えば、検出対象とするオブジェクトの形状、色などの特徴を示す特徴データを予め登録しておき、特徴データをもとに検出する方法などを用いることができる。その他の既存の画像処理方法を用いることが可能である。
図14(A)に示す例では、例えば飲み物(ジョッキ、グラス)に相当するオブジェクトOB1,OB2、食べ物に相当するオブジェクトOB3,OB4,OB5が検出された例を示している。
また、CPU16Aは、第2画像から客に提供された商品に相当するオブジェクト画像(第2オブジェクト)を第1画像と同様にして検出し(ActS4)、第2オブジェクトをRAM16Cあるいは記憶装置16Dに記憶させる。
図14(B)は、第2画像を概念的に示す図である。図14(B)に示す例では、第1画像と同様にして、オブジェクトOB1~OB5が検出された例を示している。ただし、図14(B)に示すように、第1画像を撮像してから所定時間が経過した後に第2画像を抽出しているため、客による飲食が進んで商品が消費されている。また、飲み物(ジョッキ、グラス)に相当するオブジェクトOB1,OB2は、客によってテーブル上に置かれた位置が変更されている。なお、第2画像は、第1画像の撮像時から所定時間経過した後に、第1画像を撮像した同じ範囲を改めて撮像した画像を意味する。
CPU16Aは、商品毎に状況の変化(残量)を検出するために、第1画像に含まれる複数の第1オブジェクトと、第2画像に含まれる複数の第2オブジェクトとを対応づける(ActS5)。すなわち、第1画像の撮像時と第2画像の撮像時では、商品のテーブル上の位置が異なっていたとしても商品毎に状況の変化を検出できるようにする。
CPU16Aは、対応づけた第1オブジェクトと第2オブジェクトの組み合わせ毎にそれぞれ比較して差分を抽出する(ActS6)。すなわち、第1画像の撮像時の商品の状況と第2画像の撮像時の商品の状況との変化を検出する。
CPU16Aは、第1オブジェクトと第2オブジェクトの組み合わせ毎の差分と予め設定された基準値とを比較し(ActS7)、差分が基準値を上回っているかを判定する(ActS8)。基準値は、商品の消費が十分に多い状態、言い換えると、商品の残量が予め設定された所定値より少ない、あるいは残りが無い状態であることを判別するための値である。すなわち、もうすぐ空になる器がある、あるいは回収すべき空の器があることを判別するための値である。なお、第1オブジェクトと第2オブジェクトとの差分をもとに、商品の残量に相当する部分を検出しても良い。この場合、残量を判別するための基準値を設定して、この基準値と残量とを比較して、商品の残量が所定値より少ない、あるいは残りが無い状態であることを判別する。また、基準値は、オブジェクトの種類(飲み物、食べ物)毎に設定されていても良いし、オブジェクトの検出時に商品を特定できるのであれば商品毎に設定されていても良い。
CPU16Aは、比較処理の結果をもとに、フロアロボット26を動作させる報知条件に達しているかを判別する。すなわち、第1オブジェクトと第2オブジェクトとの比較により、差分が基準値を上回っているオブジェクト(商品)がある場合には報知条件に達しているものと判別する。CPU16Aは、少なくとも1つのオブジェクトの差分が基準値を上回っている場合に報知条件に達しているものと判別しても良いし、予め決められた数のオブジェクトの差分が基準値を上回っている場合に報知条件に達しているものと判別しても良い。
なお、前述した比較処理では、第1画像(第1オブジェクト)と第2画像(第2オブジェクト)との差分を抽出し、この差分をもとに商品の状況を判別しているが、その他の方法を用いて商品の状況を判別するようにしても良い。例えば、複数の商品のそれぞれについて、商品を撮像した画像の特徴量を辞書データとして予め登録しておき、この辞書データと第2画像から抽出される各オブジェクトの画像とを比較する。そして、オブジェクトの画像と辞書データとの類似度が所定の基準値を下回っているか、すなわち商品の消費が十分に多い状態にあるかを判別するようにしても良い。
ここで、報知条件に達していないと判別された場合(ActF5、No)、CPU16Aは、前回の第2画像を抽出してから所定時間が経過した後(ActF3、Yes)、前述と同様にして、映像から第2画像を抽出して、第1画像と第2画像との比較により、フロアロボット26を動作させる報知条件に達しているかを判別する(ActF4,F5)。
なお、2回目以降の比較処理では、先に第1画像を受信済みであるので(図13、ActS1、Yes)、CPU16Aは、第1画像から第1オブジェクトを検出する処理(ActS2,S3)を省略する。ただし、追加の商品が配膳された場合には、その後に、第1画像の記憶及び第1オブジェクトの抽出を実行する。この場合、CPU16Aは、第1画像から追加された商品に対応するオブジェクトを抽出して、他のオブジェクトと同様にして記憶しておく。また、第2画像から無くなった第2オブジェクトについては、商品が消費されて回収されたものとして、この第2オブジェクトに対応する第1オブジェクトも削除するものとする。
報知条件に達していると判別された場合(ActF5、Yes)、CPU16Aは、残量が少ない、あるいは残りが無い状態の器があるものとして、フロアロボット26に対して、現在、映像の表示対象として選択されているテーブルを移動先として指示すると共に、物品の回収(バッシング)のための移動を指示するための呼び出し情報を出力する(ActF6)。なお、複数のフロアロボット26が設けられている場合、CPU16Aは、複数のフロアロボット26に対して予め設定された優先順位に基づいて何れかのフロアロボット26を選択して、この選択したフロアロボット26に対して呼び出し情報を出力する。
なお、CPU16Aは、フロアロボット26に対して呼び出し情報を出力する場合、第1実施形態と同様にして、店員が所持しているハンディターミナル20に対して、呼び出し情報を出力する。なお、CPU16Aは、動作可能なフロアロボット26がない場合には、ハンディターミナル20に対して、フロアロボット26が利用できない状態であることを通知する。
これにより、ホールコントローラ16は、従業員による入力操作がなくても、テーブルロボット24から受信される映像をもとに、フロアロボット26を物品の回収に行かせる状態であることを検出して、フロアロボット26に対して指示することができる。
図15(A)は、第2実施形態におけるハンディターミナル20の処理を示すフローチャートである。図15(B)は、第2実施形態におけるフロアロボット26の動作を示すフローチャートである。
ハンディターミナル20は、ホールコントローラ16から呼び出し情報を受信すると(ActG1、Yes)、この受信に応じた出力をする(ActC2)。例えば、ハンディターミナル20は、表示装置にポップアップ画面を表示させて、ホールコントローラ16からの指示内容を表示する。また、ハンディターミナル20は、出力形態として表示に限らず、音出力、振動発生などによって、ホールコントローラ16からの受信を店員に認識させるようにしても良い。なお、ハンディターミナル20の動作は、第1実施形態における回収(バッシング)時と同様に実行されるものとして詳細な説明を省略する。
一方、フロアロボット26は、ホールコントローラ16から呼び出し情報を受信すると(ActH1、Yes)、位置情報(移動先を示すテーブル番号)を受信し、現在位置から目的とするテーブルまでの経路を設定して、移動制御を開始する。なお、フロアロボット26の動作は、第1実施形態における回収(バッシング)時と同様に実行されるものとして詳細な説明を省略する。
このようにして、第2実施形態の注文処理システムでは、各テーブルに設置されたテーブルロボット24によって撮影された映像をもとに、テーブル上の商品について残量が少ない、あるいは残りが無い状態を検出して、フロアロボット26に対して、物品の回収(バッシング)のための指示を出力することができる。従って、従業員の負担を増大させることなく、テーブル毎に、商品の消費状況に応じて、フロアロボット26を適切なタイミングで回収のために移動させることができる。
(第3実施形態)
図16は、第3実施形態におけるテーブルロボット24(あるいは注文受付端末22)の処理を示すフローチャートである。図17(A)は、第3実施形態におけるハンディターミナル20の処理を示すフローチャートである。図17(B)は、第3実施形態におけるフロアロボット26の動作を示すフローチャートである。
第3実施形態では、第2実施形態において説明したホールコントローラ16の処理をテーブルロボット24により実行させる。すなわち、テーブルロボット24をフロアロボット26の制御と管理のための処理をする情報処理装置として動作させる。なお、テーブルロボット24に代えて、注文受付端末22あるいは注文受付端末22とテーブルロボット24を組み合わせた構成により実行させるようにしても良い。
テーブルロボット24のCPU24Aは、商品がテーブルに配膳された後、カメラ24Gにより撮像を実行して(ActJ1)、第1画像としてテーブル番号と対応づけてRAM16Cあるいは記憶装置16Dに記憶させる。
CPU24Aは、第1画像を記憶させた後、所定時間が経過したことが判別されると(ActJ2、Yes)、第2画像を撮像して(ActJ3)、第1画像と第2画像とを比較する比較処理を実行する(ActF4)。なお、比較処理は、第2実施形態と同様に実行されるものとして詳細な説明を省略する。
CPU24Aは、第2実施形態と同様にして、比較処理の処理結果をもとに、フロアロボット26を動作させる報知条件に達していると判別される場合(ActJ5、Yes)、フロアロボット26に対して、物品の回収(バッシング)のための移動を指示するための呼び出し情報を出力する(ActJ6)。この時、CPU24Aは、自テーブルロボット24が設置されているテーブルを移動先として指示する。なお、複数のフロアロボット26が設けられている場合、CPU16Aは、複数のフロアロボット26に対して予め設定された優先順位に基づいて何れかのフロアロボット26を選択して、この選択したフロアロボット26に対して呼び出し情報を出力する。
なお、CPU24Aは、フロアロボット26に対して呼び出し情報を出力する場合、第2実施形態と同様にして、店員が所持しているハンディターミナル20に対して、呼び出し情報を出力する。
また、テーブルロボット24は、直接、フロアロボット26に対して呼び出し情報を出力するのではなく、ホールコントローラ16に出力するようにしても良い。ホールコントローラ16は、テーブルロボット24からの呼び出し情報に応じて、フロアロボット26に対して、呼び出し情報の送信元のテーブルを移動先として、物品の回収(バッシング)のための移動を指示する呼び出し情報を出力する。この場合、ホールコントローラ16は、複数のフロアロボット26が設けられている場合、複数のフロアロボット26に対して予め設定された優先順位に基づいて何れかのフロアロボット26を選択して、この選択したフロアロボット26に対して呼び出し情報を出力することが可能である。さらに、ホールコントローラ16は、複数のテーブルのそれぞれに設置されたテーブルロボット24から呼び出し情報を受信している場合には、複数のテーブルに物品の回収の行くことが出来るようにスケジューリングして、フロアロボット26に対して指示するようにしても良い。ホールコントローラ16は、例えば効率的に1台のフロアロボット26によって複数のテーブルで物品の回収ができるように、テーブルの配置などをもとに、物品の回収に行くテーブルと移動順を設定して、フロアロボット26に指示する。
ハンディターミナル20は、テーブルロボット24(あるいはホールコントローラ16)から呼び出し情報を受信すると(ActK1、Yes)、この受信に応じた出力をする(ActK2)。なお、ハンディターミナル20の動作は、第2実施形態における回収(バッシング)時と同様に実行されるものとして詳細な説明を省略する。
一方、フロアロボット26は、ホールコントローラ16から呼び出し情報を受信すると(ActM1、Yes)、現在位置から呼び出し情報の送信元のテーブルまでの経路を設定して、移動制御を開始する(ActM2)。なお、フロアロボット26の動作は、第2実施形態における回収(バッシング)時と同様に実行されるものとして詳細な説明を省略する。
このようにして、第3実施形態の注文処理システムでは、各テーブルに設置されたテーブルロボット24によって撮像されたテーブル上の画像をもとに、テーブル上の商品について残量が少ない、あるいは残りが無い状態を検出して、フロアロボット26に対して、物品の回収(バッシング)のための指示を出力することができる。従って、客が注文受付端末22あるいはテーブルロボット24に対して入力操作をすることなく、商品の消費状況に応じて、フロアロボット26を適切なタイミングで回収のために呼び出すことができる。
なお、前述した各実施形態の説明では、テーブルロボット24あるいは注文受付端末22にカメラを設けて撮像すると説明しているが、テーブルロボット24あるいは注文受付端末22とは別に、テーブルの周辺(上部を含む)に1台あるいは複数台のカメラを設置して、例えばテーブル上、あるいはテーブル周辺の顧客を含めた周辺を撮像範囲として撮像をするようにしても良い。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
また、前述した実施の形態において記載した処理は、コンピュータに実行させることのできるプログラムとして、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD-ROM、DVD等)、半導体メモリなどの記録媒体に書き込んで各種装置に提供することができる。また、通信媒体により伝送して各種装置に提供することも可能である。コンピュータは、記録媒体に記録されたプログラムを読み込み、または通信媒体を介してプログラムを受信し、このプログラムによって動作が制御されることにより、上述した処理を実行する。
10…オーダーステーション、12…POS端末、14…キッチンプリンタ、16…ホールコントローラ、18(18-1,…,18-m)…アクセスポイント、20(20-1,…,20-n)…ハンディターミナル、22(22-1,…,22-x)…注文受付端末、24(24-1,…,24-x)…テーブルロボット、26(26-1,…,26-y)…フロアロボット。

Claims (5)

  1. 店舗内に配置された複数のテーブルのそれぞれにおいて撮像された撮像データを受信する受信手段と、
    前記複数のテーブルの何れかに対応する前記撮像データをもとに映像を表示させる第1表示手段と、
    自律走行して店舗内を移動する機能を有するロボットに対する動作目的に対応する動作指示を入力する指示入力手段と、
    前記動作指示に応じて、前記第1表示手段により表示された映像に対応するテーブルまで移動する移動指示を前記ロボットに出力する出力手段と、
    前記出力手段により出力された移動指示に応じて移動する前記ロボットの前記店舗内の位置と共に前記動作目的を示す情報を表示させる第2表示手段と
    を有する情報処理装置。
  2. 前記指示入力手段により入力された動作指示の対象とするロボットを選択するための選択画面を表示させる第3表示手段をさらに有する請求項1記載の情報処理装置。
  3. 前記第3表示手段は、複数のロボットのうち選択可能なロボットについての選択画面を表示させる請求項2記載の情報処理装置。
  4. 前記出力手段は、前記動作指示に応じて、複数のロボットのうち、優先順位に基づいて選択したロボットに対して移動指示を出力する請求項1記載の情報処理装置。
  5. 自律走行して店舗内を移動する機能を有する少なくとも1台のロボットと、前記ロボットを制御する情報処理装置とを含むシステムであって、
    前記情報処理装置は、
    店舗内に配置された複数のテーブルのそれぞれにおいて撮像された撮像データを受信する受信手段と、
    前記複数のテーブルの何れかに対応する前記撮像データをもとに映像を表示させる第1表示手段と、
    前記ロボットに対する動作目的に対応する動作指示を入力する指示入力手段と、
    前記動作指示に応じて、前記第1表示手段により表示された映像に対応するテーブルまで移動する移動指示を前記ロボットに出力する出力手段と、
    前記出力手段により出力された移動指示に応じて移動する前記ロボットの前記店舗内の位置と共に前記動作目的を示す情報を表示させる第2表示手段とを有するシステム。
JP2022022333A 2018-03-02 2022-02-16 情報処理装置、及びシステム Active JP7242927B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022022333A JP7242927B2 (ja) 2018-03-02 2022-02-16 情報処理装置、及びシステム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018037850A JP2019153070A (ja) 2018-03-02 2018-03-02 情報処理装置、及び情報処理プログラム
JP2022022333A JP7242927B2 (ja) 2018-03-02 2022-02-16 情報処理装置、及びシステム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018037850A Division JP2019153070A (ja) 2018-03-02 2018-03-02 情報処理装置、及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2022063323A JP2022063323A (ja) 2022-04-21
JP7242927B2 true JP7242927B2 (ja) 2023-03-20

Family

ID=87852598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022022333A Active JP7242927B2 (ja) 2018-03-02 2022-02-16 情報処理装置、及びシステム

Country Status (1)

Country Link
JP (1) JP7242927B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004252497A (ja) 2002-01-15 2004-09-09 Masanobu Kujirada 飲食店において料理又は飲料を提供するための方法及びシステム
JP2007109072A (ja) 2005-10-14 2007-04-26 Matorikkusu:Kk 無人販売システム
CN101661098A (zh) 2009-09-10 2010-03-03 上海交通大学 机器人餐厅多机器人自动定位系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101828674B1 (ko) * 2016-03-31 2018-02-12 경남대학교 산학협력단 레스토랑의 지능형 서비스 로봇시스템

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004252497A (ja) 2002-01-15 2004-09-09 Masanobu Kujirada 飲食店において料理又は飲料を提供するための方法及びシステム
JP2007109072A (ja) 2005-10-14 2007-04-26 Matorikkusu:Kk 無人販売システム
CN101661098A (zh) 2009-09-10 2010-03-03 上海交通大学 机器人餐厅多机器人自动定位系统

Also Published As

Publication number Publication date
JP2022063323A (ja) 2022-04-21

Similar Documents

Publication Publication Date Title
JP2019153070A (ja) 情報処理装置、及び情報処理プログラム
CN110223465B (zh) 信息处理装置及方法、计算机可读存储介质、电子设备
JP6980738B2 (ja) 食べ物および/または飲み物のサービングのためのロボット
JP6997159B2 (ja) 食べ物および/または飲み物のサービングのためのロボット
US10672051B2 (en) Method, computer program product, and system for providing a sensor-based environment
US11775983B2 (en) Method and system of providing service by controlling robot in service area, and robot implementing thereof
CN108175227B (zh) 货架控制方法、装置和电子设备
WO2005038574A2 (en) Self-checkout system with biometric data processing
JP2020502649A (ja) インテリジェントサービスロボットおよび関連するシステムおよび方法
JP5514016B2 (ja) 飲食店用サービスシステム
JP2007109072A (ja) 無人販売システム
EP3605446A1 (en) System and method for keeping an automated-taxi clean
JP7242927B2 (ja) 情報処理装置、及びシステム
CN204791177U (zh) 一种新型智能机器人系统
JP2019185221A (ja) 店舗管理方法及び店舗管理システム
JP2001319275A (ja) セルフオーダーエントリシステム
JP6618155B2 (ja) 販売データ処理装置及びプログラム
Shiga et al. Intelligent space-based future convenience store for customer interaction service with new experience, safety, and flexibility
US11572232B2 (en) Systems and methods for automatically reconfiguring a building structure
JP2019153126A (ja) 商品販売データ処理装置、商品販売データ処理システム、及びプログラム
JP2021114185A (ja) 情報処理装置、システムおよびプログラム
WO2024084653A1 (ja) 配膳ロボット、配膳システム、及び配膳方法
JP7261833B2 (ja) サービングロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体
JP4280176B2 (ja) 客席管理装置
JP2005242767A (ja) 店舗管理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220325

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230308

R150 Certificate of patent or registration of utility model

Ref document number: 7242927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150