JPWO2020145085A1 - 画像認識装置、画像認識プログラム、および画像認識方法 - Google Patents

画像認識装置、画像認識プログラム、および画像認識方法 Download PDF

Info

Publication number
JPWO2020145085A1
JPWO2020145085A1 JP2020565674A JP2020565674A JPWO2020145085A1 JP WO2020145085 A1 JPWO2020145085 A1 JP WO2020145085A1 JP 2020565674 A JP2020565674 A JP 2020565674A JP 2020565674 A JP2020565674 A JP 2020565674A JP WO2020145085 A1 JPWO2020145085 A1 JP WO2020145085A1
Authority
JP
Japan
Prior art keywords
image recognition
state
customer
unit
status
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020565674A
Other languages
English (en)
Other versions
JP7155295B2 (ja
Inventor
一成 岩永
海斗 笹尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Publication of JPWO2020145085A1 publication Critical patent/JPWO2020145085A1/ja
Application granted granted Critical
Publication of JP7155295B2 publication Critical patent/JP7155295B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/12Hotels or restaurants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Cash Registers Or Receiving Machines (AREA)

Abstract

本発明は、顧客満足度の高いサービスを提供するための技術を提供することを目的とする。上記課題を解決するために、代表的な本発明の画像認識装置の一つは、飲食スペースを撮像した映像を取得する映像取得部と、飲食スペースの映像群について飲食に関する進行状況(以下「食事状況」という)を機械学習させた学習モデルを用いて、映像取得部が取得した映像について食事状況を画像認識する画像認識部と、画像認識された食事状況に基づいて顧客の飲食に関する進捗状態を判定する状態判定部とを備える。

Description

本発明は、画像認識装置、画像認識プログラム、および画像認識方法に関する。
飲食を顧客に提供する業種において、顧客に対してサービスをタイムリーに提供することは、顧客満足度の向上と、効率的な事業運営といった観点から重要である。
そのため、従業員は店内の各テーブルを巡回しながら目視確認を繰り返し、各テーブルにおける食事の進行状況を常に把握する必要があった。
一方、顧客が操作する呼び出しボタンや注文用タブレットを各テーブルに配置して、サービス指示のタイミングを顧客の判断に任せてしまう方法も知られている。
また、特許文献1には、「食事に用いる容器と容器に収容された料理の画像を撮影し、画像から料理の残量を面積測定して食事が終了したか否かを判断し、食事終了を示す情報を出力する」旨の技術が開示される。
特開2015−138452号公報
従業員には、接客以外にも、食材発注・下ごしらえ・調理・後片付け・レジ清算・店内清掃などの仕事がある。そのため、従業員が、各テーブルの食事の進行状況をきめ細かく目視確認して、サービス指示のタイミングを常時判断する方法は、従業員としての負担が大きくなるという問題があった。
一方、呼び出しボタンや注文用タブレットを使用する方法は、顧客からの要求に合わせて従業員が受動的に対応するため、顧客満足度をそれ以上に高めることは難しいという問題があった。
また、特許文献1の技術は、料理の残量を面積測定する方法の開示しかなく、それ以外の多様な食事の進行状況についての柔軟な判定は考慮されていない。
そこで、本発明は、顧客満足度の高いサービスを提供するための技術を提供することを目的とする。
上記課題を解決するために、代表的な本発明の画像認識装置の一つは、飲食スペースを撮像した映像を取得する映像取得部と、飲食スペースの映像群について飲食に関する状況(以下「食事状況」という)を機械学習させた学習モデルを用いて、映像取得部が取得した映像について食事状況を画像認識する画像認識部と、画像認識された食事状況に基づいて顧客の飲食に関する進捗状態を判定する状態判定部とを備える。
本発明の画像認識技術により、顧客満足度の高いサービスを提供することが可能となる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
業務支援システムおよび画像認識装置の構成を示す図である。 画像認識部および状態判定部の構成を示す図である。 学習データの一例を示す説明図である。 画像認識装置の動作を説明する流れ図である。 撮像装置から取得する飲食スペースの映像を示す図である。 検知領域を示す図である。 ブロック分割を行った検知領域を示す図である。 顧客単位の検知領域を示す図である。 学習モデルによる推論結果を、検知領域ごとに示した図である。 3D畳込みニューラルネットワークを説明する図である。 YOLOやSSDなどによる物体検出の結果を示す図である。 学習モデルから出力されるクラス分類を示す図である。 状態遷移モデルを示す図である。 状態遷移モデルの遷移条件の例を示す図である。 進捗状態に対応するサービス指示の一例を示す図である。 サービス指示の表示例を示す図である。
本発明に関わる実施例を、図面を参照して説明する。
<実施例の構成>
図1は、業務支援システム1および画像認識装置100の全体構成を示すブロック図である。
この画像認識装置100は、ハードウェアをCPU(Central Processing Unit)やメモリユニットや通信ユニットなどを備えたコンピュータ(情報処理システムなども含む)により構成してもよい。
このハードウェアにおいて、画像認識プログラムが実行されることにより、画像認識装置100の後述する各種機能が実現する。
なお、ハードウェアの一部または全部については、DSP(Digital Signal Processor )、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit )などで代替してもよい。また、ハードウェアの一部または全部をネットワーク上のサーバに集中または分散配置してクラウド化し、複数の人がネットワークを介して共同利用してもよい。
図1に示すように、業務支援システム1は、画像認識装置100、撮像装置101、表示/指示端末102、および表示出力装置103を備える。さらに、画像認識装置100は、映像取得部110、画像認識部120、状態判定部130、データ通信部140、記録制御部150、表示制御部170、および記録装置160を備える。
撮像装置101は、1台以上のカメラによって構成され、飲食スペースを撮影するように天井や壁や卓上などに配置される。例えば、撮像装置101には、CCTVカメラ、卓上に設置したロボットに内蔵されたカメラ、魚眼レンズカメラ、ウェブカメラなどが採用可能である。
映像取得部110は、無線や有線ケーブルやネットワーク網を介して、撮像装置101から飲食スペースの映像を1次元配列もしくは2次元配列の画像データとして取得する。また、映像取得部110は、外部の映像データベースや記録装置160からも飲食スペースの映像群を取得する。
画像認識部120は、映像取得部110が取得する映像について、食事状況や、メニュー状況や、人物の有無の状況を画像認識する。
なお、本開示において、「食事状況」とは、飲食の進行状況を示すものであり、例えば「食事未提供」、「食事提供済み」、「食事終了」などを指す。
また、本開示において、「メニュー状況」とは、顧客が閲覧するメニューに関する状況を示すものであり、例えば「メニュー無し」、「メニュー有り(閉状態)」、「メニュー有り(開状態)」などを指す。
さらに、「メニュー有り(閉状態)」には、メニューブックが閉じて中ページを閲覧できない状況の他に、メニューが衝立などに収納されてメニューを閲覧できない状況などを含めてもよい。「メニュー有り(開状態)」には、メニューブックが開いた状態で中ページが閲覧可能な状況の他に、メニューを衝立などから取り出してメニューが閲覧可能になった状況や、顧客がメニューを手にしている状況などを含めてもよい。
また、本開示において、「人物の有無の状況」とは、人物の有無に関する状況を示すものであり、例えば「在席」、「空席」などを指す。
さらに「在席」には、椅子に着席した状況の他に、立食式の飲食スペースにおいて立食可能なスペースに立っている状況を含めてもよい。
状態判定部130は、画像認識の結果に基づいて、顧客の飲食に関する進捗状態を判定し、進捗状態に対応するサービス指示のタイミングを報知する。
データ通信部140は、状態判定部130、画像認識部120、表示/指示端末102、およびデータセンタ(不図示)などの間で無線や有線ケーブルやネットワーク網を介してデータ通信を行う。
表示/指示端末102は、POS端末(販売時点情報管理端末)などの情報処理装置であって、状態判定部130が報知するサービス指示のタイミングを、データ通信部140を介して受信してイベントや画像や振動や音声などによって顧客担当の従業員に通知する。
また、従業員が表示/指示端末102に入力した顧客情報(注文データや精算データなど)は、データ通信部140を介して状態判定部130に伝達される。さらに、従業員が表示/指示端末102に入力した情報(通知確認や通知停止の操作や、サービス指示を実施したか否かの情報など)もデータ通信部140を介して状態判定部130に伝達される。
記録制御部150は、状態判定部130の判定に基づいて、記録装置160に対する記録制御(記録のオンオフ、フレームレートの制御、圧縮率の制御、記録間隔の制御など)を行う。
記録装置160は、記録制御部150による記録制御に従って、映像取得部110が取得した映像を記録する。さらに、記録装置160は、画像認識装置100による画像認識や状態判定の結果も記録する。
表示制御部170は、映像取得部110が取得した映像と共に、画像認識装置100による画像認識や状態判定やサービス指示の結果を表示出力装置103に表示する。
図2は、画像認識部120および状態判定部130の構成を示すブロック図である。
同図において、画像認識部120は、パラメータ設定部121、前処理部122、特徴抽出部123、認識部124、および学習モデル125を備える。状態判定部130は、状態遷移部131、および指示出力部132を備える。
パラメータ設定部121は、画像処理に必要なパラメータを設定、変更、読み込み、保存する機能を持つ。
前処理部122は、映像取得部110の取得した映像に対して、パラメータ設定部121のパラメータに従って検知領域のトリミング処理やマスキング処理を行う。さらに、前処理部122は、映像に対してノイズやフリッカなどを低減するため、平滑化フィルタ、輪郭強調フィルタ、濃度変換などの前処理を施してもよい。さらに、画像認識の用途に応じてRGBカラーやモノクロなどの色変換処理を行ってもよい。さらには、処理負荷を低減するために、画像データに縮小処理を施してもよい。
特徴抽出部123は、前処理を施した検知領域の映像に対して、後段の画像認識の精度を向上させるため、画像認識に関わる画像の特徴を強調または抽出する画像処理を行う。
認識部124は、特徴抽出部123により特徴抽出を行った検知領域の映像について、学習モデル125を用いた画像認識を実施する。
学習モデル125は、畳込みニューラルネットワークなどにより構成される。この学習モデル125の学習データは、事前に検知領域の映像群を収集し、人物有無のクラス分類、食事状況のクラス分類、およびメニュー状況のクラス分類を教師値として与えることにより作成される。
例えば、次のクラス分類が教師値となる。
<食事状況>
・食事未提供
・食事提供済み
・食事終了
<メニュー状況>
・メニュー有り(閉状態)
・メニュー有り(開状態)
・メニュー無し
<人物有無の状況>
・在席
・空席
図3は、このような教師値を付与した学習データの一例を示す説明図である。
同図のA群は、空席、食事未提供、メニュー無しの教師値を付与した映像群である。
B群は、在席、食事未提供、メニュー有り(開状態)の教師値を付与した映像群である。
C群は、在席、食事提供済み、メニュー無しの教師値を付与した映像群である。
D群は、在席、食事終了、メニュー無しの教師値を付与した映像群である。
このような学習データの映像群を学習モデル125の入力層に与えつつ、学習モデル125の出力層において教師値との誤差を最小化するように機械学習(例えば逆誤差伝搬法)が行われる。
このような機械学習により、学習モデル125の入力層に検知領域の映像を与えると、学習モデル125の出力層に「人物有無のクラス分類」、「食事状況のクラス分類」、および「メニュー状況のクラス分類」などの推論結果が出力されるようになる。
状態遷移部131は、入店から退店までの顧客の飲食に関する状態の遷移をモデル化した状態遷移モデルを有する。状態遷移部131は、この状態遷移モデルに対して、認識部124の画像認識の結果(「人物有無のクラス分類」、「食事状況のクラス分類」、および「メニュー状況のクラス分類」などの推論結果)を遷移条件として当てはめて、顧客の状態を状態遷移させることで、現時点の顧客の飲食に関する進捗状態を判定する。
また、状態遷移部131は、顧客の状態遷移について時間経過に基づく予測を行い、次の進捗状態に遷移させる。
さらに、状態遷移部131は、表示/指示端末102に操作入力された顧客の注文、精算などの顧客情報をデータ通信部140を介して取得する。状態遷移部131は、この顧客情報に基づいて顧客の進捗状態を優先的に決定する。
このような状態遷移を起こした情報群は、記録制御部150を介して記録装置160内の履歴160aにバックアップされる。
指示出力部132は、顧客の進捗状態に対応して、サービス指示をデータ通信部140を介して表示/指示端末102に報知する。
<実施例の動作>
図4は、画像認識装置100の動作を説明する流れ図である。
以下、図4に示すステップ番号に沿って、実施例の動作を説明する。
ステップS101: 映像取得部110は、撮像装置101から飲食スペースの映像を取得する。図5は、取得される飲食スペースの映像301を示す図である。映像301には、テーブル単位(テーブルと座席のセット)の複数の検知領域302〜305が含まれる。
ステップS102: パラメータ設定部121は、この映像301を歪曲補正した後、テーブル単位の検知領域302〜305をトリミングするために区画を設定する。このような区画設定は、ユーザがテーブルとテーブルとの間に境界線を指定して設定してもよい。また、パラメータ設定部121が映像301からテーブルの色や形状を認識することによって、テーブル単位の区画を自動設定してもよい。
また、パラメータ設定部121は、各テーブルの照明などの撮影条件の違いに基づいて、テーブル単位の検知領域302〜305それぞれに対する画質補正(輝度補正や色補正やガンマ補正など)を設定してもよい。
さらに、パラメータ設定部121は、テーブル上の飾りなど、食事やメニューと関係しない固定領域を除くためのマスク設定を行ってもよい。
前処理部122は、パラメータ設定部121による上述した一連の設定に基づいて、映像301からテーブル単位の検知領域302〜305をトリミングする。図6は、トリミングされた検知領域302を示す図である。
なお、説明を簡単にするため、ここから以降は検知領域302の処理のみを説明するが、残りの検知領域303〜305についても同様の処理が並行または逐次に行われる。
ステップS103: 前処理部122は、テーブル単位の検知領域302をさらに分割する。
図7は、テーブル単位の検知領域302をm列×n行のブロック単位の検知領域501に分ける様子を示す図である。このように処理単位を細分化することにより、後段の特徴検出や画像認識の処理単位を小さくし、かつ並列化するなどの高速化も可能になる。
図8は、顧客単位の検知領域601〜603を決定する様子を示す図である。前処理部122は、顧客の有無を、背景差分法や顔検出や学習モデルなどの画像処理により検出する。前処理部122は、検出された顧客の領域とその顧客に提供される飲食物やメニューの領域をカバーするように検知領域601〜603を決定する。このように顧客の行動領域ごとに検知領域601〜603を分けたことにより、顧客別の画像認識が可能になる。
さらに、図8に示すような複数人が自由に座る長椅子ではなく、一人ずつ座る椅子席の場合、顧客ごとの検知領域601〜603の代わりに、椅子席ごとに検知領域を分けてもよい。
上述した検知領域の種類は、後段の特徴抽出部123、認識部124の設計や処理負荷や飲食スペース特有の事情に応じて使い分けられる。
ステップS104: 特徴抽出部123は、検知領域に対して、例えば、動き特徴として、背景差分法などによって過去画像との変化量、オプティカルフローに基づく動きベクトル、画像特徴として、画像に含まれるエッジ情報、色情報、輝度情報などを抽出する。抽出された特徴は検知領域の映像データとして認識部124へ出力される。
なお、特徴抽出部123は、ハフ変換で検出した円や直線の数など、人物や皿などの形状に着目したルールベースと特徴量を検知領域に付属させてもよい。また、特徴抽出部123は、人物の手足のスケルトン認識(例えばOpenPoseなど)によって、手足などの人体パーツの特徴情報を抽出して検知領域に付属させてもよい。
認識部124は、特徴抽出部123から入力された検知領域の多次元配列データを、学習モデル125の入力層に入力する。
学習モデル125の内部では、この検知領域の多次元配列データに対して、畳込み層やプーリング層や全結合層による配列演算および活性化関数による非線形演算が行われる。検知領域に付属する画像以外の特徴情報については、全結合層に入力してもよい。
この配列演算では、上述した機械学習で作成された各層の係数値やバイアス値などが使用されることにより、学習モデル125の出力層には、上述した「人物有無のクラス分類」、「食事状況のクラス分類」、および「メニュー状況のクラス分類」などの推論結果が出力されるようになる。
図9は、学習モデル125による推論結果を、検知領域601、602、603ごとに示した図である。
なお、食事状況の正しい推定を行うためには、フォークなど器具を使う動作なども有用な情報となることから、学習モデル125は、過去の時系列の複数フレームを同時に畳込む3D畳込みニューラルネットワーク(図10参照)などの方式を用いて、動きを含めた推論処理を行ってもよい。この場合、学習モデル125は、「顧客による食事中の動き」や「顧客がメニューを読む動き」や「食事中にスマホを見る動き」などの顧客の動きを検出することが可能になる。
また、学習モデル125は、検知領域601、602、603のように顧客ごとの検知領域に対してだけではなく、図7のような一律に分割されたブロック状の検知領域501に対しても適用することができる。この場合、例えば、1人しか映っていない状態であっても、複数のブロックが「在席」を示すようになる。そこで、同じ「在席」を示す隣接ブロックを統合することにより、1人分の映像範囲を確定できる。また、1人分の映像範囲に含まれるブロック群についてクラス分類の結果の多数決をとることにより、1人分の映像範囲についてクラス分類を行うことが可能になる。
また、各テーブルの状態を個人ごとに分ける必要がない場合、つまり、テーブル全体の状態を管理したい場合は、図6に示した検知領域302のように机単位の区画全体を学習モデル125に入力とすることで推論処理を行うことも可能である。
さらに、顧客ニーズとして、水やドリンクなどのコップの出し忘れを防ぎたいというニーズがある場合、例えば、You Only Look Once(YOLO)やSingle Shot Multibox Det ector(SSD)に代表されるような物体検出処理を学習モデル125に適用して、”ドリンク”や”食事”、”人物”など机上周辺に存在しうるものをクラスとして定義、学習させることによって、図11に示すようにオブジェクトの位置、有無を認識するようにしてもよい。
図12は、学習モデル125により実施されるクラス分類を示す図である。
同図において、クラス分類は、次のクラスからなる。
<食事状況>
・食事未提供
・食事提供済み
・食事終了
<メニュー状況>
・メニュー有り(閉状態)
・メニュー有り(開状態)
・メニュー無し
<人物有無の状況>
・在席
・空席
ステップS105: 図13は、状態遷移部131が使用する状態遷移モデルを示す図である。同図において、状態遷移モデルは、次の(1)〜(6)の進捗状態を有する。(1)入店(2)メニュー選択(3)待ち(4)食事中(5)食後(6)退店
これらの進捗状態は、(1)〜(6)の昇順に状態遷移(図13に示す実線矢印)が起こる。この昇順の状態遷移は、顧客が入店してから退店するまでの標準的な状態遷移である。その他に、状態遷移モデルには、図13に示す点線矢印のような例外的な状態遷移が存在する。
図14は、この状態遷移モデルの遷移条件の一例を示す図である。
状態遷移部131は、状態遷移モデルに対して、認識部124の画像認識の結果(「人物有無のクラス分類」、「食事状況のクラス分類」、および「メニュー状況のクラス分類」などの推論結果)を組み合わせて遷移条件に該当すると、顧客の進捗状態を状態遷移させる。この状態遷移により、現時点における顧客の飲食に関する進捗状態が決定する。
例えば、前回が「退店」の進捗状態にあった検知領域において、人物有無のクラス分類が空席から在席に変化すると、進捗状態は「入店」に初期設定される。
さらに、「入店」の進捗状態において、在席状態でメニューが開かれるという遷移条件を満足すると、進捗状態を「入店」から「メニュー選択」へ状態遷移させる。
また、「メニュー選択」の進捗状態において、開かれていたメニューが閉じるという遷移条件を満足すると、進捗状態を「メニュー選択」から「待ち」へ状態遷移させる。
さらに、「待ち」の進捗状態において、食事状況が食事提供済みになるという遷移条件を満足すると、進捗状態を「待ち」から「食事中」へ状態遷移させる。
また、「食事中」の進捗状態において、食事状況が食事終了になるという遷移条件を満足すると、進捗状態を「食事中」から「食後」へ状態遷移させる。
さらに、「食後」の進捗状態において、メニューが開かれるという遷移条件を満足すると、進捗状態を「食後」から「メニュー選択」へ状態遷移させる。
また、「食後」の進捗状態において、在席から空席へ変化するという遷移条件を満足すると、進捗状態を「食後」から「退店」へ状態遷移させる。
ステップS106: 状態遷移部131は、状態遷移後の時間経過を計測する。この時間経過に基づいて、次の状態遷移の可能性を予測する。この予測により、画像認識の結果に変化がない場合でも、状態遷移部131は進捗状態を次に進めることができる。
ステップS107: 状態遷移部131は、注文などの顧客情報を収集する表示/指示端末102などの情報処理装置から顧客情報をデータ通信部140を介して取得すると、状態遷移モデルの進捗状態を優先的(強制的)に変更する。
例えば、図14に示すように、「入店」または「メニュー選択」の進捗状態において、「注文完了」の顧客情報を取得すると、進捗状態は「待ち」へ強制的に変更される。
ステップS108: 指示出力部132は、検知領域ごとに進捗状態に対応するサービス指示(サービス内容:サービス提供のタイミング)を決定する。
図15は、進捗状態に対応するサービス指示の一例を示す図である。
例えば、「入店」の進捗状況に対応して、サービス指示(飲料水コップの提供:入店になってから)が決定する。
さらに、「メニュー選択」の進捗状態に対応して、サービス指示(注文の確認:メニュー選択になってから所定時間経過後)が決定する。
また、「待ち」の進捗状態に対応して、サービス指示(食事の提供:待ちになってから調理完了後)が決定する。
さらに、「食後」の進捗状態に対応して、サービス指示(食器の回収:食後になってから)が決定する。
また、「退店」の進捗状態に対応して、サービス指示(片付け指示:退店になってから)が決定する。
さらに、「食後」の進捗状態に対応して、サービス指示(食後デザートの提供:食後かつ食後デザートの注文がある場合)が決定する。
ステップS109: 顧客単位やテーブル単位にサービス指示が生じるため、複数のサービス指示が短期間に集中するケースも生じる。そこで、指示出力部132は、顧客やテーブルの間で発生するサービス指示に対して優先レベルを設定する。
一般に、顧客のために行うサービス(「注文の確認」や「食事の提供」や「食後デザートの提供」など)は、飲食店のために行うサービス(「食器の回収」など)よりも優先レベルが高くなる。
ステップS110: 指示出力部132は、優先レベルに応じて、サービス指示のタイミングを入れ替えることにより、従業員別の接客スケジュールを予定する。
ステップS111: 指示出力部132は、従業員別の接客スケジュールに所定時間以上の空き時間があるか否かを判定する。空き時間がある場合、指示出力部132はステップS112に動作を移行する。それ以外の場合、指示出力部132はステップS113に動作を移行する。
ステップS112: 指示出力部132は、空き時間に応じて、接客以外の仕事(食材発注・下ごしらえ・調理・後片付け・レジ清算・店内清掃など)や休憩のタイミングをデータ通信部140を介して、従業員の表示/指示端末102に報知する。
ステップS113: 指示出力部132は、予定された接客スケジュールのタイミングでサービス指示と、サービスすべきテーブルまたは顧客の位置情報とをデータ通信部140を介して、従業員の表示/指示端末102に報知する。
なお、サービス指示を、図16に示すようなマップ情報700にして、バックヤードの表示出力装置103に表示してもよい。例えば、「退店」の進捗状態が発生すると、マップ上のレジ箇所に「レジ待ちあり」が表示される。このような表示出力装置103を従業員が視認しやすい場所に置くことで、全体のオペレーションを把握できる他、指示端末を持たない従業員も、各自が処理すべき仕事を視認しやすいようになる。
ステップS114: 認識部124は、食事状況の画像認識と併せて、コップの中の飲料水の残量についての補充物状況を画像認識する。状態遷移部131は、補充物状況に応じてコップの中の飲料水が不足状態か否かを判定する。
指示出力部132は、不足状態の判定に対して、飲料水の補充を行うサービス指示と、サービスすべきテーブルまたは顧客の位置情報とをデータ通信部140を介して、従業員の表示/指示端末102に報知する。
なお、補充物は飲料水に限らず、ドリンク、お茶、調味料、付け合わせ、ご飯、パン、卓上ケース内の箸やフォークやナイフなどのお代わりまたは補充を行うものでもよい。
上述した一連の動作(ステップS101〜114)を完了すると、画像認識装置100は動作をステップS101に戻すことで、従業員の接客支援が繰り返し継続的に行われる。
<実施例の効果>
(1)実施例では、機械学習した学習モデルを用いて、飲食スペースの映像から顧客の食事状況を画像認識する。したがって、特許文献1の飲食残量の面積測定のような固定的な画像認識とは異なり、顧客の食事状況を柔軟に画像認識することが可能になる。
(2)特許文献1の飲食残量の面積測定では、顧客に「注文」の意思があるか否かは判定のしようがない。それに対して、実施例では、食事状況の他に、メニュー状況について画像認識を行う。その結果、メニューが開かれた状況を検知して顧客が「注文」の意思があるなどを総合的に判定し、顧客の注文意思を的確に捉えることが可能になる。したがって、実施例の採用により、顧客が従業員に注文の声をかける前に、従業員が顧客に注文を伺うことが可能になる。そのため、顧客満足度を高めることが可能になる。
(3)また、食事状況が変化するのは、「食事提供」の直後であるのに対して、メニュー状況が変化するのはそれよりも前の「入店」後からである。そうしてみると、食事状況にメニュー状況を加えることにより、より広範囲の期間についてサービス指示を報知することが可能になる。
(4)また、実施例では、顧客の飲食の進捗状態を状態遷移モデルで表す。そのため、現在の進捗状態と、画像認識の結果(遷移条件)とに基づいて、進捗状態を状態遷移させる。例えば、「食後」の進捗状態において、画像認識によりメニューが開かれたことを検知することで、顧客に「追加注文」の意思があるなどのより詳細な注文意思を的確に捉えることが可能になる。一般に「最初の注文」に比べて「追加注文」は必ず発生するわけではないため、その注文意思を的確に捉えるには、従業員側に接客についての長い経験が必要になる。しかし、実施例の採用により、経験の浅い従業員であっても顧客に追加注文を適切なタイミングで伺うことが可能になる。そのため、顧客満足度を一段と高めることが可能になる。
(5)さらに実施例では、時間経過による予測によって状態遷移モデルを状態遷移させる。そのため、何らかの原因により画像認識の結果が得られない場合にも、顧客の進捗状態が進み、従業員は注文や配膳などのサービス指示を受けることができる。したがって、実施例においてサービス指示が停止してしまって顧客に迷惑がかかるといった事態を防ぐことができる。
(6)また、実施例では、POS端末などから収集した顧客情報に基づいて状態遷移モデルを優先的(強制的)に状態遷移させる。そのため、何らかの原因により画像認識の結果が得られない場合にも、顧客の進捗状態が進み、従業員はサービス指示を受けることができる。したがって、実施例においてサービス指示が停止してしまって顧客に迷惑がかかるといった事態を防ぐことができる。
(7)さらに実施例では、顧客の有無に応じて画像認識を行う検知領域を決定する。そのため、顧客のいない領域について無駄に画像認識を行うことがなくなり、効率的な処理が可能になる。
(8)また実施例では、複数の顧客や顧客グループについて、サービス指示の優先レベルを勘案した接客スケジュールを作成する。そのため、多数のサービス指示が集中して発生して混乱するなどの状況を緩和することが可能になる。従来このような混乱を避けるためには、従業員側に接客についての深く長い経験が必要になる。しかし、実施例の採用により、経験の浅い従業員であっても優先レベルの高いサービス指示から順に実施すればよくなる。したがって、顧客満足度を一段と高めることが可能になる。
(9)さらに実施例では、接客スケジュールに基づいて空き時間を予測する。したがって、従業員に対してサービス指示だけではなく、空き時間を指示することが可能になる。したがって、実施例の採用により、従業員の行動に無為な空き時間が生まれるといったことがなくなり、空き時間を意識して効率的に活用することが可能になる。
(10)また、実施例では、お茶や飲料水などの補充物状況についても画像認識を行い、補充指示を適時に報知することができる。したがって、実施例の採用により、従業員が補充物の不足を何度も目視確認する必要がなくなり、従業員の手間を減らすことが可能になる。
(11)以上述べたように、実施例では、店舗の従業員や経営者は、顧客の食事状況などに基づいて、次にやるべき仕事について、必要なタイミングでサービス指示を受けることが可能になる。
(12)さらに、実施例では、従業員は、必要なタイミングでサービス指示を受けるため、顧客の状態を目視確認するなど意識を払う必要が少なく、レジや調理/片付け業務や清掃など、その他業務に集中することが可能となり、業務効率の向上につながる。
(13)この業務効率の向上の結果、実施例では、食事提供までの待ち時間が短縮される。したがって、効率的かつ顧客満足度の高い速やかな業務遂行が期待できる。
<実施例の補足>
なお、実施例では、ニューラルネットワークの学習モデル125について説明した。しかしながら、本発明はこれに限定されない。本発明は、クラス分類が可能な学習モデルであればよく、決定木学習などの学習モデルを使用することもできる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
また、ある構成の一部を他の構成に置き換えることが可能である。
さらに、実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
1…業務支援システム、100…画像認識装置、101…撮像装置、102…表示/指示端末、103…表示出力装置、110…映像取得部、120…画像認識部、121…パラメータ設定部、122…前処理部、123…特徴抽出部、124…認識部、125…学習モデル、130…状態判定部、131…状態遷移部、132…指示出力部、140…データ通信部、150…記録制御部、160…記録装置、160a…履歴、170…表示制御部

Claims (14)

  1. 飲食スペースを撮像した映像を取得する映像取得部と、
    飲食スペースの映像群について食事状況を機械学習させた学習モデルを用いて、前記映像取得部が取得した映像について前記食事状況を画像認識する画像認識部と、
    画像認識された前記食事状況に基づいて顧客の飲食に関する進捗状態を判定する状態判定部と、
    を備えることを特徴とする画像認識装置。
  2. 請求項1記載の画像認識装置において、
    前記画像認識部は、
    前記映像について、メニュー状況を画像認識し、
    前記状態判定部は、
    画像認識された前記食事状況および前記メニュー状況に基づいて、前記顧客の飲食に関する前記進捗状態を判定する
    ことを特徴とする画像認識装置。
  3. 請求項1〜2のいずれか1項に記載の画像認識装置において、
    前記状態判定部は、
    前記進捗状態の状態遷移をモデル化した状態遷移モデルを有し、前記画像認識部の認識結果を遷移条件として前記進捗状態を前記状態遷移モデルに当てはめて状態遷移させることにより、前記進捗状態を判定する
    ことを特徴とする画像認識装置。
  4. 請求項3記載の画像認識装置において、
    前記状態判定部は、
    前記顧客の飲食に関する前記状態遷移について時間経過に基づく予測を行う
    ことを特徴とする画像認識装置。
  5. 請求項1〜4のいずれか1項に記載の画像認識装置において、
    前記状態判定部は、
    前記顧客の注文などの顧客情報を収集する情報処理装置から前記顧客情報を取得し、前記顧客情報による判定を優先して、前記進捗状態を判定する
    ことを特徴とする画像認識装置。
  6. 請求項1〜5のいずれか1項に記載の画像認識装置において、
    前記画像認識部は
    前記映像において、前記顧客の有無を検出し、前記顧客の有無に応じて前記映像において画像認識を行う検知領域を決定する
    ことを特徴とする画像認識装置。
  7. 請求項1〜6のいずれか1項に記載の画像認識装置において、
    前記状態判定部は、
    前記進捗状態に対応するサービス指示を報知する
    ことを特徴とする画像認識装置。
  8. 請求項1〜7のいずれか1項に記載の画像認識装置において、
    前記状態判定部は
    前記顧客の別または前記顧客のグループ別に、前記進捗状態に対応するサービス指示の優先レベルを管理し、前記優先レベルに応じて前記進捗状態に対応するサービス指示を報知する
    ことを特徴とする画像認識装置。
  9. 請求項1〜8のいずれか1項に記載の画像認識装置において、
    前記状態判定部は
    前記進捗状態に基づいて接客に関する空き時間を判定し、前記空き時間に応じて接客以外の仕事または休憩のタイミングを報知する
    ことを特徴とする画像認識装置。
  10. 請求項1〜9のいずれか1項に記載の画像認識装置において、
    前記画像認識部は、
    前記飲食スペースにおいてお代わりまたは補充を行う補充物に関する状況(以下「補充物状況」という)を画像認識し、
    前記状態判定部は、
    前記補充物状況に基づいて、前記補充物の不足を判定し、前記補充物の不足に対応するサービス指示を報知する
    ことを特徴とする画像認識装置。
  11. コンピュータを
    請求項1〜10のいずれか1項に記載の前記画像認識部、および前記状態判定部として機能させる
    ことを特徴とする画像認識プログラム。
  12. 飲食スペースを撮像した映像を取得する映像取得ステップと、
    飲食スペースの映像群について食事状況を機械学習させた学習モデルを用いて、前記映像取得ステップが取得した映像について前記食事状況を画像認識する画像認識ステップと、
    画像認識された前記食事状況に基づいて顧客の飲食に関する進捗状態を判定する状態判定ステップと、
    を備えることを特徴とする画像認識方法。
  13. 請求項12記載の画像認識方法において、
    前記画像認識ステップは、
    前記映像について、メニュー状況を画像認識し、
    前記状態判定ステップは、
    画像認識された前記食事状況および前記メニュー状況に基づいて、前記顧客の飲食に関する前記進捗状態を判定する
    ことを特徴とする画像認識方法。
  14. 請求項12〜13のいずれか1項に記載の画像認識方法において、
    前記状態判定ステップは、
    前記進捗状態の状態遷移をモデル化した状態遷移モデルを有し、前記画像認識ステップの認識結果を遷移条件として前記進捗状態を前記状態遷移モデルに当てはめて状態遷移させることにより、前記進捗状態を判定する
    ことを特徴とする画像認識方法。
JP2020565674A 2019-01-08 2019-12-20 画像認識装置、画像認識プログラム、および画像認識方法 Active JP7155295B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019001403 2019-01-08
JP2019001403 2019-01-08
PCT/JP2019/050008 WO2020145085A1 (ja) 2019-01-08 2019-12-20 画像認識装置、画像認識プログラム、および画像認識方法

Publications (2)

Publication Number Publication Date
JPWO2020145085A1 true JPWO2020145085A1 (ja) 2021-11-04
JP7155295B2 JP7155295B2 (ja) 2022-10-18

Family

ID=71521498

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020565674A Active JP7155295B2 (ja) 2019-01-08 2019-12-20 画像認識装置、画像認識プログラム、および画像認識方法

Country Status (2)

Country Link
JP (1) JP7155295B2 (ja)
WO (1) WO2020145085A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022124419A1 (ja) * 2020-12-11 2022-06-16 株式会社 情報システムエンジニアリング 情報処理装置、情報処理方法及び情報処理システム
CN113158803A (zh) * 2021-03-23 2021-07-23 山东巍然智能科技有限公司 一种教室空座查询系统、实时视频分析系统及方法
JP7427753B1 (ja) 2022-11-18 2024-02-05 Necプラットフォームズ株式会社 店舗管理サーバー、プログラム、及び、店舗管理方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004252497A (ja) * 2002-01-15 2004-09-09 Masanobu Kujirada 飲食店において料理又は飲料を提供するための方法及びシステム
JP2005250670A (ja) * 2004-03-02 2005-09-15 Toshiba Tec Corp 客席管理装置
JP2008198077A (ja) * 2007-02-15 2008-08-28 Matsushita Electric Works Ltd 入退室管理システム
JP2013058059A (ja) * 2011-09-08 2013-03-28 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
JP2015138452A (ja) * 2014-01-23 2015-07-30 東芝テック株式会社 料理残量検出装置及びプログラム
JP2016035703A (ja) * 2014-08-04 2016-03-17 富士通株式会社 飲食ペース評価プログラム、飲食ペース評価方法、コンピュータ及び飲食ペース評価システム
WO2017130431A1 (ja) * 2016-01-27 2017-08-03 ロクス株式会社 情報処理装置、情報処理システム、受信装置、サーバ装置、情報処理方法、及びプログラム
JP2018163504A (ja) * 2017-03-24 2018-10-18 株式会社 ゼンショーホールディングス 対話制御装置及び対話システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004252497A (ja) * 2002-01-15 2004-09-09 Masanobu Kujirada 飲食店において料理又は飲料を提供するための方法及びシステム
JP2005250670A (ja) * 2004-03-02 2005-09-15 Toshiba Tec Corp 客席管理装置
JP2008198077A (ja) * 2007-02-15 2008-08-28 Matsushita Electric Works Ltd 入退室管理システム
JP2013058059A (ja) * 2011-09-08 2013-03-28 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
JP2015138452A (ja) * 2014-01-23 2015-07-30 東芝テック株式会社 料理残量検出装置及びプログラム
JP2016035703A (ja) * 2014-08-04 2016-03-17 富士通株式会社 飲食ペース評価プログラム、飲食ペース評価方法、コンピュータ及び飲食ペース評価システム
WO2017130431A1 (ja) * 2016-01-27 2017-08-03 ロクス株式会社 情報処理装置、情報処理システム、受信装置、サーバ装置、情報処理方法、及びプログラム
JP2018163504A (ja) * 2017-03-24 2018-10-18 株式会社 ゼンショーホールディングス 対話制御装置及び対話システム

Also Published As

Publication number Publication date
WO2020145085A1 (ja) 2020-07-16
JP7155295B2 (ja) 2022-10-18

Similar Documents

Publication Publication Date Title
JPWO2020145085A1 (ja) 画像認識装置、画像認識プログラム、および画像認識方法
US10671958B2 (en) Analytics to determine customer satisfaction
US8918327B2 (en) Customer service status analysis device, customer service status analysis system and customer service status analysis method
US20130027424A1 (en) Information processing apparatus, information processing method, and program
US20140214484A1 (en) Customer category analysis device, customer category analysis system and customer category analysis method
EP2763087A1 (en) Customer behavior analysis device, customer behavior analysis system and customer behavior analysis method
EP2105889A2 (en) Systems and methods for transaction queue analysis
US20150261994A1 (en) Image processor, important person determination method, image layout method as well as program and recording medium
JP2007097090A (ja) 画像表示装置および方法ならびにプログラム、さらに写真プリント注文受付装置
CN111080493B (zh) 一种菜品信息识别方法、装置及菜品自助结算系统
KR20160048072A (ko) 정보 처리 장치, 정보 처리 방법, 및, 정보 처리 시스템
JP5780348B1 (ja) 情報提示プログラム及び情報処理装置
CN110135646B (zh) 一种餐厅预估快速上菜的方法、装置及存储介质
US10701220B2 (en) Image print proposal device, method, and program
JP7376489B2 (ja) 食品を分類する方法及びシステム
CN110019405A (zh) 信息系统、电子设备、计算机可读介质及信息处理方法
CN115761639B (zh) 座位信息智能分析与推荐方法
JP2015512074A (ja) ルールベースのコンテンツ生成のためのシステム及び方法
US20230178212A1 (en) Method and system for foodservice with iot-based dietary tracking
US20230145313A1 (en) Method and system for foodservice with instant feedback
JP2022098762A (ja) 調理支援システム、調理支援方法および、調理支援プログラム
CN111860263A (zh) 信息录入方法、装置及计算机可读存储介质
JP2023000444A (ja) 食品ロス量学習装置、発注量算出装置およびプログラム
KR102577604B1 (ko) 인공지능에 기반한 일식 주점 메뉴 추천 시스템
US20230196802A1 (en) Multi-sensor device for dietary tracking

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221005

R150 Certificate of patent or registration of utility model

Ref document number: 7155295

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150