JP7336503B2 - サーバ及びおしぼり管理システム - Google Patents

サーバ及びおしぼり管理システム Download PDF

Info

Publication number
JP7336503B2
JP7336503B2 JP2021211871A JP2021211871A JP7336503B2 JP 7336503 B2 JP7336503 B2 JP 7336503B2 JP 2021211871 A JP2021211871 A JP 2021211871A JP 2021211871 A JP2021211871 A JP 2021211871A JP 7336503 B2 JP7336503 B2 JP 7336503B2
Authority
JP
Japan
Prior art keywords
unit
towels
estimation
learning model
wet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021211871A
Other languages
English (en)
Other versions
JP2023096251A (ja
Inventor
康行 堺
拓 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FSX Inc
Original Assignee
FSX Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FSX Inc filed Critical FSX Inc
Priority to JP2021211871A priority Critical patent/JP7336503B2/ja
Priority to US18/570,662 priority patent/US20240281950A1/en
Priority to PCT/JP2022/037550 priority patent/WO2023127224A1/ja
Priority to CN202280037178.6A priority patent/CN117355854A/zh
Publication of JP2023096251A publication Critical patent/JP2023096251A/ja
Application granted granted Critical
Publication of JP7336503B2 publication Critical patent/JP7336503B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • G06Q10/0832Special goods or special handling procedures, e.g. handling of hazardous or fragile goods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/087Inventory or stock management, e.g. order filling, procurement or balancing against orders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Quality & Reliability (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Primary Health Care (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、回収ボックス内の使用済おしぼりの枚数を推計するサーバ及びおしぼり管理システムに関するものである。
飲食店などに貸し出されるおしぼりは、飲食店で使用された後、回収ボックス内に無造作に入れられた状態で回収される。おしぼりの配送及び回収を行う配送員は、次回おしぼりを納品する枚数や紛失したおしぼりの枚数を把握するために、回収ボックス内にある使用済おしぼりの枚数を確認する必要がある。しかしながら、おしぼりを一枚一枚数える作業は非効率的であり、もとより数える時間はない。したがって、配送員は回収ボックス内にあるおしぼりの量を視認して、経験則からおしぼりの枚数を推測する。
しかしながら、おしぼり回収経験の浅い配送員にとっておしぼりの枚数を推測することは困難である。また、様々な配送員がおしぼりの枚数を推測するため推測枚数にムラが生じる。よって、おしぼりを計数するシステムを構築することが望まれている。例えば、個体を計数するシステムとして特許文献1記載の個体計数システムが知られている。
特開2019-153077号公報
特許文献1記載の個体計数システムは、魚などの移動する個体を計数対象としており、おしぼりのように動かない物体を計数するシステムでない。おしぼりはサイズが決まっており、動くこともないが、回収ボックス内に不均一に収容されるため、密度が一定でなく、回収ボックス内のおしぼりの枚数を回収ボックスの体積に基づき算出することはできない。また、使用済おしぼりに含まれる水分量はそれぞれ異なることから使用済おしぼりの重さも各々異なり、且つ同一のおしぼりであっても使用前のおしぼりと使用済おしぼりとでは重さが異なるため、回収ボックス内のおしぼりの枚数をおしぼりが収容された回収ボックスの重さに基づき算出することもできない。
本発明の目的は、回収ボックス内に収容された使用済おしぼりの枚数を迅速に推計することができるサーバ及びおしぼり管理システムを提供することである。
本発明のサーバは、回収ボックスに収容された使用済おしぼりを上方から撮影した学習用画像を入力値とし該使用済おしぼりの枚数を出力値とするニューラルネットワークにより学習させた学習モデルを記憶する学習モデル記憶部と、携帯端末において前記回収ボックスに収容された使用済おしぼりを上方から撮影した推計用画像を受信する受信部と、前記学習モデル記憶部に記憶されている前記学習モデルを用いて、前記受信部により受信した前記推計用画像から前記ニューラルネットワークにより前記使用済おしぼりの枚数を推計する推計部と、前記推計部により推計された推計結果を前記携帯端末に向けて送信する送信部とを備えることを特徴とする。
また、本発明のサーバは、前記推計結果を修正した修正枚数を取得する修正枚数取得部を備え、前記学習モデルは、前記学習用画像及び過去に撮影された前記推計用画像であって前記推計結果を修正した修正済推計用画像を前記入力値とする前記ニューラルネットワークにより深層学習させた1次深層学習モデルを用いて、過去に撮影された前記推計用画像であって前記推計結果を修正していない無修正推計用画像における前記使用済おしぼりの枚数を推計し、前記学習用画像、前記修正済推計用画像及び前記1次深層学習モデルを用いて推計された前記無修正推計用画像を前記入力値とする前記ニューラルネットワークにより深層学習させた2次深層学習モデルであることを特徴とする。
また、本発明のサーバは、前記学習モデル記憶部が前記回収ボックスの外枠より外側の画像データを削除した前記学習用画像を用いて学習させた前記学習モデルを記憶し、前記推計部は、前記回収ボックスの外枠より外側の画像データを削除した前記推計用画像を用いて前記使用済おしぼりの枚数を推計することを特徴とする。
また、本発明のサーバは、前記推計用画像に写る前記回収ボックスの色を、前記学習用画像に写る前記回収ボックスの色または近似色に補正する色補正部を備えることを特徴とする。
また、本発明のサーバは、前記推計用画像に基づいて前記回収ボックス内における前記使用済おしぼりの密度を検出する密度検出部を更に備え、前記推計部は、前記密度検出部により検出された前記密度を用いて前記使用済おしぼりの枚数を推計することを特徴とする。
また、本発明のサーバは、前記回収ボックス内における前記使用済おしぼりの密度が所定密度より大きいか否かを取得する密度取得部を更に備え、前記推計部は、前記密度取得部において取得した結果を用いて前記使用済おしぼりの枚数を推計することを特徴とする。
また、本発明のサーバは、前記使用済おしぼりの枚数に関する演算を行う演算部を更に備え、前記受信部は、複数の前記推計用画像を受信し、前記推計部は、複数の前記推計用画像内の前記使用済おしぼりの枚数をそれぞれ推計し、前記演算部は、前記推計部により推計された複数の推計結果の平均値を算出することを特徴とする。
また、本発明のサーバは、前記複数の推計結果の異常値を検出する異常値検出部を更に備え、前記演算部は、前記異常値検出部により検出された前記異常値を除いた前記複数の推計結果の前記平均値を算出することを特徴とする。
また、本発明のサーバは、前記学習モデル記憶部が前記学習用画像から前記回収ボックスの外枠及び前記回収ボックスに収容された使用済おしぼり群の外縁の輪郭を抽出し、抽出された前記回収ボックスの外枠に対する前記使用済おしぼり群の外縁の輪郭から前記使用済おしぼりの枚数を推計するためのパラメーターが組み込まれた前記学習モデルを記憶することを特徴とする。
また、本発明のサーバは、おしぼりの種類を取得する種類取得部と、前記おしぼりの種類毎に設定された前記おしぼりの重さに基づく補正係数を記憶する補正係数記憶部と、を更に備え、前記推計部は、前記種類取得部により取得した前記おしぼりの種類の前記補正係数を前記補正係数記憶部から取得し、取得した前記補正係数を用いて前記使用済おしぼりの枚数を補正することを特徴とする。
また、本発明のサーバは、回収ボックスに収容された第1使用済おしぼりを上方から撮影した学習用画像を入力値とし前記第1使用済おしぼりと異なる前記回収ボックスに収容された第2使用済おしぼりの枚数を出力値とするニューラルネットワークにより学習させた学習モデルを記憶する学習モデル記憶部と、携帯端末において前記回収ボックスに収容された前記第1使用済おしぼりを上方から撮影した推計用画像を受信する受信部と、前記学習モデル記憶部に記憶されている前記学習モデルを用いて、前記受信部により受信した前記推計用画像から前記ニューラルネットワークにより前記第1使用済おしぼりの枚数を推計する推計部と、前記推計部により推計された推計結果を前記携帯端末に向けて送信する送信部とを備えることを特徴とする。
また、本発明のおしぼり管理システムは、携帯端末、本発明のサーバ及び基幹システムを備えるおしぼり管理システムであって、前記携帯端末は、おしぼりを配送する店舗、前記店舗が利用する前記おしぼりの種類、前記店舗へ納品した前記おしぼりの枚数、前記店舗から回収した前記おしぼりの枚数及び前記店舗における前記おしぼりの在庫枚数を含む回収前店舗情報を基幹システムから受信する第1情報受信部と、前記第1情報受信部により受信した前記回収前店舗情報に、前記推計結果を追加した回収後店舗情報を前記基幹システムに送信する第1情報送信部とを備え、前記基幹システムは、前記回収前店舗情報を記憶する情報記憶部と、前記情報記憶部に記憶されている前記回収前店舗情報を前記携帯端末に送信する第2情報送信部と、前記携帯端末から送信される前記回収後店舗情報を受信する第2情報受信部と、前記第2情報受信部より受信した前記回収後店舗情報を前記情報記憶部に記憶させることにより、前記回収前店舗情報を更新する更新部とを備えることを特徴とする。
本発明によれば、回収ボックス内に収容された使用済おしぼりの枚数を迅速に推計することができるサーバ及びおしぼり管理システムを提供することができる。
第1の実施の形態に係るおしぼり管理システムの構成を示すブロック図である。 第1の実施の形態に係るクラウドサーバのシステム構成を示すブロック図である。 第1の実施の形態に係るスマートフォンの表示部における表示例を示す図である。 第1の実施の形態に係るスマートフォンの表示部における表示例を示す図である。 第1の実施の形態に係るスマートフォンの表示部における表示例を示す図である。 第1の実施の形態に係るおしぼり管理システムが回収ボックスに収容された使用済おしぼりの枚数を推計するために実行する処理について説明するためのフローチャートである。 第2の実施の形態に係るスマートフォンの表示部における表示例を示す図である。 第2の実施の形態に係るスマートフォンの表示部における表示例を示す図である。 第2の実施の形態に係る標準学習モデルについて説明するための図である。 第2の実施の形態に係る第1種類学習モデルの正解ラベルと推計結果との平均二乗誤差を示すグラフである。 第2の実施の形態に係るおしぼり管理システムが回収ボックスに収容された使用済おしぼりの枚数を推計するために実行する処理について説明するためのフローチャートである。
以下、図面を参照して本発明の第1の実施の形態に係るおしぼり管理システムについて説明する。図1は、第1の実施の形態に係るおしぼり管理システムの構成について説明するためのブロック図である。第1の実施の形態に係るおしぼり管理システム1は、飲食店等の店舗に貸し出される貸しおしぼりの枚数等を管理するためのシステムであって、図1に示すように、複数のスマートフォン2a,2b,2c、クラウドサーバ4及び基幹システム6を備えている。
スマートフォン2a~2cは、店舗におしぼりを配送し且つ店舗から使用済おしぼりを回収する配送員が所持する携帯端末(携帯情報端末)であって、タブレット等でもよい。クラウドサーバ4は、スマートフォン2a~2cからアップロードされるデータを収集及び保管するサーバ、並びに回収ボックスに収容されている使用済おしぼりの枚数を推計するおしぼり枚数推計システムとして機能するサーバであって、図2は、クラウドサーバ4のシステム構成を示すブロック図である。なお、クラウドサーバ4は、物理サーバなど他のサーバでもよい。基幹システム6は、社屋内に配置されるパソコン等である。スマートフォン2a~2c、クラウドサーバ4及び基幹システム6は、ネットワーク8により互いに接続されている。なお、図1においては、3台のスマートフォン2a~2cがネットワーク8に接続されている場合を例示しているが、実際にはスマートフォン2a~2cと同様の構成を有する多数のスマートフォンがネットワーク8に接続されている。また、この実施の形態においては、クラウドサーバ4及び基幹システム6がネットワーク8により接続される場合を例に挙げているが、サーバと基幹システムとが一体に形成されたシステム、即ちサーバ機能(使用済おしぼりの枚数を推計するおしぼり枚数推計システムとしての機能を含む)を備えた基幹システムを用いてもよい。
スマートフォン2aは、図1に示すように、スマートフォン2aの各部を統括的に制御する制御部10を備えている。制御部10には、入力部12、撮影部14、データ記憶部16、表示部18及び通信部20が接続されている。
入力部12は、タッチパネル及びボタン等であって、使用済おしぼりを回収する際、おしぼりを使用した店舗の情報(店コード)及びおしぼりの種類(おしぼりAかおしぼりBか)等を入力する(図3参照)。また、入力部12は、回収ボックス内における使用済おしぼりの密度が所定密度より大きいか否か(「ぎゅうぎゅう」か「ふわふわ」か)を入力する(図3参照)。撮影部14は、カメラ等であって、制御部10(後述する撮影制御部31)の指示にしたがって、使用済おしぼりを回収する際、回収ボックス内に収容されている使用済おしぼりを上方から撮影する。この実施の形態では、撮影部14は、3枚の推計用画像(回収ボックスに収容されている使用済おしぼりを上方から撮影した画像)を撮影する。
データ記憶部16は、撮影部14により撮影された画像及び配送員が使用済おしぼりを回収する店舗に関する店舗情報24等を記憶する。店舗情報24には、配送コース(配送エリア)コード、店コード、おしぼりの種類(おしぼりAまたはB)、直近任意回数のおしぼり回収実績平均枚数、前回納品したおしぼりの枚数、前回回収したおしぼりの枚数、及び店舗におけるおしぼり在庫枚数等の回収前店舗情報が含まれている。
表示部18は、液晶表示パネル等であって、制御部10(後述する表示制御部34)の指示にしたがって店舗及びおしぼり情報を入力する画面及びクラウドサーバ4により推計されたおしぼり枚数の推計結果(後述する)を表示する画面等を表示する。図3~図5は、この実施の形態に係るスマートフォン2aの表示部18における表示例を示す図である。図3~図5については、後述する。
通信部20は、ネットワーク8を介してクラウドサーバ4及び基幹システム6と通信する。具体的には、通信部20は、制御部10の指示にしたがって、入力部12を介して入力された配送コースに含まれる店舗情報、即ちおしぼりを配送する店舗、店舗が利用するおしぼりの種類、直近任意回数のおしぼり回収実績平均数、前回納品したおしぼりの枚数、前回回収したおしぼりの枚数、店舗におけるおしぼり在庫枚数、及び店舗へのおしぼり納品停止フラグ等の回収前店舗情報を、基幹システム6からネットワーク8を介して受信する。また、通信部20は、撮影部14により撮影された3枚の推計用画像、入力部12により入力されたおしぼりの種類及び入力部12により入力された使用済おしぼりの密度を、クラウドサーバ4にネットワーク8を介して送信する。また、通信部20は、制御部10の指示にしたがって、クラウドサーバ4において推計されたおしぼり枚数結果を、クラウドサーバ4からネットワーク8を介して受信する。また、通信部20は、制御部10の指示にしたがって、基幹システム6から受信した回収前店舗情報に、回収日、使用済おしぼりの推計枚数及び撮影位置情報等を追加した回収後店舗情報を、クラウドサーバ4にネットワーク8を介して送信する。
また、制御部10は、取得部30、撮影制御部31及び表示制御部34を備えている。取得部30は、入力部12を介して入力された店コード等の各種情報及び撮影部14により撮影された画像を取得する。撮影制御部31は、表示部18に表示される外側のガイド枠19a及び内側のガイド枠19b(図3参照)の間に回収ボックスの外枠が収まった際、撮影部14に推計用画像を撮影させる。
表示制御部34は、図3に示す店舗及びおしぼり情報を入力する画面18a、図4に示すクラウドサーバ4により推計されたおしぼり枚数の推計結果を示す回収登録画面18b及び図5に示すおしぼりの適正納品枚数を示す納品登録画面18c等を表示部18に表示させる。また、表示制御部34は、撮影部14により推計用画像を撮影する際、表示部18にライブビュー画像を表示させると共に、撮影範囲に対する回収ボックスの外枠の位置をガイドするガイド枠19a,19bを表示させる(図3参照)。なお、スマートフォン2b及び2cの構成は、スマートフォン2aの構成と同一のため、説明を省略する。
次に、クラウドサーバ4の構成について説明する。クラウドサーバ4は、配送員が使用済おしぼりを回収する際に、回収ボックスに収容されている使用済おしぼりの枚数を、人口知能(AI)を用いて推計するおしぼり枚数推計システムを含み、図2に示すように、クラウドサーバ4の各部を統括的に制御する制御部36を備えている。制御部36には、データ記憶部38及び通信部40が接続されている。
データ記憶部38には、使用済おしぼりの回収を終えた後に各スマートフォン2a~2cより送信される回収後店舗情報が記憶されている。また、制御部36による演算処理に必要な情報、後述する推計部32による推計の際に使用される第1学習モデル22及び第2学習モデル23、並びにおしぼりの種類毎に定められている補正係数26等が記憶されている。
第1学習モデル22及び第2学習モデル23は、AIを用いて回収ボックスに収容されている使用済おしぼりの枚数を推計するために予め学習させたモデルであって、おしぼり枚数推計システムに予め組み込まれている。なお、第1学習モデル22及び第2学習モデル23は、回収ボックスに収容された使用済おしぼりを上方から撮影した学習用画像を入力値とし該使用済おしぼりの枚数を出力値とするニューラルネットワークにより学習させたモデルである。また、第1学習モデル22及び第2学習モデル23には、学習用画像から回収ボックスの外枠及び回収ボックスに収容された使用済おしぼり群(回収ボックスの収容されているすべての使用済おしぼり)の外縁の輪郭を抽出し、抽出された回収ボックスの外枠に対する使用済おしぼり群の外縁の輪郭から使用済おしぼりの枚数を推計するためのパラメーターも組み込まれている。
ニューラルネットワークは入力層、中間層及び出力層に分けられ、入力層では、学習用画像を画素にまでばらばらにしたデータが入力され、入力されたデータから画像の輪郭が抽出される。次に中間層では、入力層にて抽出された画像の輪郭について画像解析が行われ、出力層では中間層にて画像解析された結果に基づいて使用済おしぼりの推計枚数結果が出力される。なお、ニューラルネットワークは、画像の画素毎の明度値0~1×画素数からおしぼりの枚数値(例えば5~320枚)を数学的に演算する。中間層には畳み込み層、プーリング層、ドロップアウト層、全結合層及び平坦化層が組み合わせて使用されており、各層には数百~数千万個のパラメーターが保存されている。そして、多数の学習用画像を用いてチューニングさせることにより、入力層から中間層を経て出力層にできるだけ正確な結果(正確なおしぼり枚数)を導き出せるように、各層の上記パラメーターの重みづけを変化させている。
ここで、第1学習モデル22は回収ボックスに収容された使用済おしぼりの密度が所定密度より大きい場合(「ぎゅうぎゅう」の場合)、第2学習モデル23は回収ボックスに収容された使用済おしぼりの密度が所定密度以下の場合(「ふわふわ」の場合)における学習モデルである。即ち、「ぎゅうぎゅう」の場合と「ふわふわ」の場合とでは、おしぼりが同一であって回収ボックス内のおしぼりの体積が同一であっても、当然におしぼりの枚数は異なるが、この実施の形態においては、密度によって学習モデルを第1学習モデル22及び第2学習モデル23に分けることによりおしぼり枚数推計精度を向上させている。
なお、この実施の形態に係るおしぼり管理システムにおいては、同一の大きさ及び異なる厚さを有するおしぼりA及びおしぼりB、即ち厚さの違いにより重さ及び体積が異なるおしぼりA及びおしぼりBを管理しているものとし、第1学習モデル22及び第2学習モデル23は、おしぼりAについて学習させたモデルとする。
補正係数26は、おしぼりの種類毎(この実施の形態においては、おしぼりA及びB)に定められている係数である。なお、第1学習モデル22及び第2学習モデル23がおしぼりAについて学習させたモデルであるから、おしぼりA(基準のおしぼり)の補正係数が1、またはおしぼりAが基準のおしぼりである旨データ記憶部38に記憶されている。また、おしぼりBの補正係数は、基準のおしぼりに対するおしぼりBの重さと枚数から設定され、データ記憶部38(補正係数26)に記憶されている。
通信部40は、ネットワーク8を介して各スマートフォン2a~2c及び基幹システム6と通信する。具体的には、通信部40は、各スマートフォン2a~2cの撮影部14により撮影された3枚の推計用画像、各スマートフォン2a~2cの入力部12により入力されたおしぼりの種類及び入力部12により入力された使用済おしぼりの密度を、各スマートフォン2a~2cからネットワーク8を介して受信する。また、通信部40は、制御部36の指示にしたがって、推計部32において推計されたおしぼり枚数結果を、スマートフォン2a~2cにネットワーク8を介して送信する。また、通信部40は、制御部36の指示にしたがって、回収前の店舗情報に、回収日、使用済おしぼりの推計枚数及び撮影位置情報等を追加した回収後店舗情報を、各スマートフォン2a~2cからネットワーク8を介して受信する。また、通信部40は、制御部36の指示にしたがって、各スマートフォン2a~2cより受信した回収後店舗情報を、基幹システム6にネットワーク8を介して送信する。
また、制御部36は、取得部29、推計部32、検出部33及び演算部35を備えている。取得部29は、スマートフォン2a~2cの撮影部14により撮影され通信部40を介して受信した画像及びスマートフォン2a~2cの入力部12により入力され通信部40を介して受信したおしぼりの密度を取得する。また、取得部29は、制御部36による演算処理に必要な情報をデータ記憶部38から取得する。
推計部32は、データ記憶部38に記憶されている第1学習モデル22または第2学習モデル23を用いて、スマートフォン2a~2cの撮影部14により回収ボックスに収容された使用済おしぼりを上方から撮影し取得部29において取得した推計用画像から、使用済おしぼりの枚数を推計する。このとき、推計部32は、取得部29において取得した使用済おしぼりの密度が所定密度より大きい場合(「ぎゅうぎゅう」が入力された場合)第1学習モデル22を、取得部29において取得した使用済おしぼりの密度が所定密度以下の場合(「ふわふわ」が入力されたる場合)第2学習モデル23を用いて、使用済おしぼりの枚数を推計する。即ち、ニューラルネットワークの入力層に推計用画像の画素データが入力され、画素データから画像の輪郭が抽出され、中間層において入力層にて抽出された画像の輪郭について画像解析が行われ、出力層において中間層にて画像解析された結果から推計された使用済おしぼりの推計枚数結果が出力される。このとき、推計用画像から回収ボックスの外枠及び回収ボックスに収容された使用済おしぼり群の外縁の輪郭も抽出され、抽出された回収ボックスの外枠に対する使用済おしぼり群の外縁の輪郭から使用済おしぼりの枚数を推計するためのパラメーターを用いて使用済おしぼりの推計枚数結果が出力される。
なお、第1学習モデル22または第2学習モデル23を用いて推計される使用済おしぼりの推計枚数結果は、おしぼりAの推計枚数結果である。したがって、推計部32は、おしぼりBの場合にあっては、取得部29を介してデータ記憶部38の補正係数26からおしぼりBの補正係数を取得し、おしぼりAの推計枚数結果からおしぼりBの推計枚数結果となるように、おしぼりBの補正係数を用いて使用済おしぼりの推計枚数を補正する。
検出部33は、推計部32による複数(3個)の推計結果の異常値を検出する。具体的には、検出部33は、1個目の推計結果と他の推計結果との差が閾値を超えている場合、1個目の推計結果を異常値と判別し、2番目及び3番目の推計結果についても同様の判別を行う。演算部35は、使用済おしぼりの枚数に関する演算を行う。特に、演算部35は、推計部32により推計された複数(3個)の推計結果の平均値を算出する。また、演算部35は、検出部33において異常値が検出された場合、検出部33により検出された異常値を除いた複数(2個)の推計結果の平均値を算出する。
次に、基幹システム6の構成について説明する。基幹システム6は、貸しおしぼりに関する全体的な情報を統括して管理し、図1に示すように、基幹システム6の各部を統括的に制御する制御部42を備えている。制御部42には、入力部44、表示部46、データ記憶部48及び通信部50が接続されている。
入力部44は、キーボードやマウス等であって、制御部42は、基幹システム6のユーザーにより入力部44を介して入力された入力結果を取得する。表示部46は、液晶パネル等であって、配送コース情報、店舗情報及びおしぼり情報等の表示を行う。データ記憶部48には、配送コースコードを含む配送コース(配送エリア)に関する情報である配送コース情報52、貸しおしぼりを納品している店舗の情報である店舗情報54、おしぼりの種類等に関する情報であるおしぼり情報56、並びにその他ユーザー(配送員)のログイン認証キー、認証キーの有効期限、ユーザー名、パスワード、所属会社名及び所属会社のおしぼり納品枚数単位(パッケージ単位)等が記憶されている。
通信部50は、ネットワーク8を介して各スマートフォン2a~2c及びクラウドサーバ4と通信する。具体的には、通信部50は、制御部42の指示にしたがって、配送コースコードが含まれる店舗情報を回収前店舗情報として、各スマートフォン2a~2cにネットワーク8を介して送信する。また、通信部50は、制御部42の指示にしたがって、回収前の店舗情報に、回収日、使用済おしぼりの推計枚数及び撮影位置情報等を追加した回収後店舗情報を、クラウドサーバ4からネットワーク8を介して受信する。制御部42は、クラウドサーバ4から受信した回収後店舗情報をデータ記憶部48に記憶させることにより、店舗情報54を更新する。
次に、図面を参照して、第1の実施の形態に係るおしぼり管理システム1を用いて回収ボックスに収容された使用済おしぼりの枚数を推計するおしぼり枚数推計方法について説明する。図6は、回収ボックスに収容された使用済おしぼりの枚数を推計するためにおしぼり管理システム1が実行する処理について説明するためのフローチャートである。
まず、配送員が当日おしぼり回収で回る配送コースを確認し、入力部12を介して配送コースコードを入力(図3に示す「コース」を入力)した後、配送員が所持するスマートフォン2aの制御部10は、配送コースに含まれる店舗情報(回収前店舗情報)を、基幹システム6から取得する(ステップS10)。具体的には、制御部10は、入力部12を介して配送員より入力された配送コースコードを取得し、通信部20及びネットワーク8を介して、取得した配送コースコードを基幹システム6に送信し、配送コースに含まれる店舗情報を提供するよう要求する。基幹システム6の制御部42は、ネットワーク8及び通信部50を介して、スマートフォン2aから送信された配送コースコード及び配送コースに含まれる店舗情報の提供要求を受信する。そして、制御部42は、配送コースコードに紐付けされた店コードの店舗情報を、データ記憶部48から読み込み、通信部50及びネットワーク8を介して、スマートフォン2aに送信する。スマートフォン2aの制御部10は、ネットワーク8及び通信部20を介して、配送コースに含まれる店舗情報を受信し、データ記憶部16に店舗情報24として記憶させる。
次に、配送員が最初の店舗に到着し使用済おしぼりを回収する際、スマートフォン2aが配送員から入力部12を操作することによりおしぼり枚数の推計開始の指示を受けると、制御部10の表示制御部34は、表示部18に図3に示す画面18aを表示させる(ステップS11)。この際、表示制御部34は、ライブビュー画像58の撮影範囲に対する回収ボックスの外枠の位置が所定の位置となるようにガイドするガイド枠19a,19bも表示部18に表示させる。そして、制御部10は、入力部12を介して入力された店コード、おしぼり種類及びおしぼり密度を確認する。更に、制御部10は、ライブビュー画像58内に表示されているガイド枠19aとガイド枠19bとの間に回収ボックスの外枠が収まっているか否かを確認する。このとき、予め店舗情報24からすべての店コードを読み込み、店コードをプルダウン形式で選択できるようにしてもよい。また、店コードが入力されると、店舗情報24から店コードに紐付けされているおしぼりの種類(店舗が契約しているおしぼりの種類)を読み込み、おしぼりの種類を自動で選択するようにしてもよい。なお、図3においては、「おしぼりA」及び「ぎゅうぎゅう」が選択されている場合を例示している。
なお、配送コースに含まれているが、当日おしぼりの配送を要しない(おしぼりの回収も納品もなし)店舗については、配送員が図3に示す「配送なし」ボタンをタップする。制御部10は、入力部12を介して「配送なし」ボタンがタップされたことを確認すると、該店舗に係る回収前店舗情報に配送済フラグを追加した回収後店舗情報をデータ記憶部16に記憶させ、ステップS12~S17の処理をスキップして後述するステップS18の処理を実行する。
また、配送コースに含まれているが、当日おしぼりの回収を要しない(おしぼりの納品のみ有り)店舗については、配送員が図3に示す「回収なし」ボタンをタップする。制御部10は、入力部12を介して「回収なし」ボタンがタップされたことを確認すると、該店舗に係る使用済おしぼり回収枚数を0とし、ステップS12~S17の処理をスキップする。そして、制御部10の表示制御部34は、図4に示す回収登録画面18bを表示させることなく、図5に示す納品登録画面18cを表示部18に表示させ、制御部10は、後述するステップS18の処理を実行する。
制御部10の撮影制御部31は、ライブビュー画像58内に表示されているガイド枠19aとガイド枠19bとの間に回収ボックスの外枠が収まっていることを確認した後(ステップS12)、撮影部14に推計用画像を撮影させる(ステップS13)。撮影部14は推計用画像を撮影し、制御部10は撮影部14により撮影された推計用画像を取得し、データ記憶部16に推計用画像を記憶させる。なお、ライブビュー画像58内に表示されているガイド枠19aとガイド枠19bとの間に回収ボックスの外枠が収まっていることを確認した後、撮影制御部31が配送員による推計用画像の撮影指示を許可し、配送員から入力部12を介して撮影指示を受け取ると、撮影部14に推計用画像を撮影させる構成にしてもよい。
次に、制御部10は、ステップS13において撮影された推計用画像が3枚目の推計用画像であるか否かを判別し(ステップS14)、3枚目でない(1枚目または2枚目である)場合には(ステップS14:No)、ステップS12及びS13の動作を繰り返す。一方、3枚目である場合には(ステップS14:Yes)、制御部10は、通信部20を介して、入力部12により入力されたおしぼり種類及びおしぼり密度、並びにステップS13において撮影された3枚の推計用画像を、クラウドサーバ4に送信する(ステップS15)。
クラウドサーバ4の制御部36は、通信部40を介して、おしぼり種類及びおしぼり密度、並びに3枚の推計用画像を、スマートフォン2aから受信すると(ステップS30)、取得部29においてこれらを取得し、推計部32において使用済おしぼりの枚数を推計する(ステップS31)。
まず、推計部32は、取得部29において取得したおしぼり密度が「ぎゅうぎゅう」か「ふわふわ」かを確認し、「ぎゅうぎゅう」の場合には、データ記憶部38から所定密度より大きい場合の学習モデルである第1学習モデル22を読み込む。一方、「ふわふわ」の場合には、データ記憶部38から所定密度以下の場合の学習モデルである第2学習モデル23を読み込む。更に、推計部32は、取得部29において取得したおしぼり種類が「おしぼりA」か「おしぼりB」かを確認し、「おしぼりB」の場合にはデータ記憶部38の補正係数26からおしぼりBの補正係数を読み込む。
そして、推計部32は、おしぼり密度が「ぎゅうぎゅう」且つおしぼり種類が「おしぼりA」の場合には、第1学習モデル22を用いて使用済おしぼりの枚数を推計する。おしぼり密度が「ぎゅうぎゅう」且つおしぼり種類が「おしぼりB」の場合には、第1学習モデル22を用いて使用済おしぼりの枚数を推計後、推計結果におしぼりBの補正係数を掛け合わせることにより使用済おしぼりの枚数を補正する。おしぼり密度が「ふわふわ」且つおしぼり種類が「おしぼりA」の場合には、第2学習モデル23を用いて使用済おしぼりの枚数を推計する。おしぼり密度が「ふわふわ」且つおしぼり種類が「おしぼりB」の場合には、第2学習モデル23を用いて使用済おしぼりの枚数を推計後、推計結果におしぼりBの補正係数を掛け合わせることにより使用済おしぼりの枚数を補正する。
具体的には、推計部32は、推計用画像を入力値としてニューラルネットワークにより画像の輪郭、回収ボックスの外枠に対する使用済おしぼり群の外縁の輪郭等を抽出し、回収ボックスの外枠に対する使用済おしぼり群の外縁の輪郭から使用済おしぼりの枚数を推計するためのパラメーターを含む数百~数千万個のパラメーターを用いて出力値として使用済おしぼりの推定枚数結果を出力する。
推計部32は、取得部29において取得した3枚の推計用画像それぞれに対して上述の推計を行い、検出部33に3個の推計結果を送信する。検出部33は、3個の推計結果の中に異常値があるか否かを検出し、演算部35に異常値の有無等の異常値に関する情報を送信する。演算部35は、検出部33により異常値が検出されなかった場合、3個の推計結果の平均値を算出し、検出部33により異常値が検出された場合、検出部33により検出された異常値を除いた2個の推計結果の平均値を算出する。
制御部36は、使用済おしぼりの枚数の推計を終えると、通信部40を介して、ステップS31において推計した使用済おしぼり枚数の推計結果を、スマートフォン2aに送信する(ステップS32)。
スマートフォン2aの制御部10は、通信部20を介して、使用済おしぼり枚数の推計結果を、クラウドサーバ4から受信すると(ステップS16)、表示制御部34を介して、図4に示す回収登録画面18bを表示部18に表示させる(ステップS17)。図4に例示する推計結果は73枚であり、図4に示す画像60は撮影部14により撮影され且つクラウドサーバ4の推計部32によるおしぼり枚数の推計に用いられた画像(クラウドサーバ4より送信された推計結果に含まれている)である。そして、制御部10の表示制御部34は、配送員から入力部12を介してOKボタンの入力を確認すると、図5に示す納品登録画面18cを表示部18に表示させる。図5に例示する適正納品枚数は80本であり、これは0本・40本・80本・120本の選択肢の中から推定枚数73枚に最も近い枚数が選択された結果である。適正納品枚数については、配送員により入力部12を介して訂正可能である。例えば、店舗が休業日であるなど次回の納品を必要としない場合には0本、店舗が時節柄等の理由により通常より多い(少ない)納品を希望する場合には120本(40本)をマニュアルで選択することも可能である。また、その他の欄に0本・40本・80本・120本以外の枚数を入力することも可能である。そして制御部10は、通信部20を介して、推計結果及び納品枚数等を追加した回収後店舗情報をクラウドサーバ4に送信する(ステップS18)。
クラウドサーバ4の制御部36は、通信部40を介して、推計結果及び納品枚数等を追加した回収後店舗情報を、スマートフォン2aから受信すると、データ記憶部38に記憶させる(ステップS33)。
図6のフローチャートに示す処理を、配送コースに含まれるすべての店舗に対して行う。なお、ステップS18及びステップS33の処理は、一店一店行う代わりに、回収後店舗情報をスマートフォン2aのデータ記憶部16に記憶させておき、数店舗の回収後店舗情報をまとめてクラウドサーバ4に送信するようにしてもよい。基幹システム6は、必要に応じてクラウドサーバ4から回収後店舗情報を受信し、データ記憶部48の店舗情報54を更新する。
第1の実施の形態に係るおしぼり管理システム1によれば、回収された使用済おしぼりの枚数を一枚一枚数えることなく、迅速に推計することができる。そして、使用済おしぼりの枚数を店舗ごとに管理することにより、おしぼりの契約枚数、季節変動に伴う追加枚数、おしぼりの回収枚数、紛失したおしぼりの枚数、店舗に在庫されている枚数等を適切に管理することができる。また、第1の実施の形態に係るクラウドサーバ4に含まれるおしぼり枚数推計システムを用いれば、おしぼり回収経験の浅い配送員であっても使用済おしぼりの枚数を容易に推計することができる。また、様々な配送員がおしぼりを回収する場合であっても使用済おしぼりの枚数をムラなく推計することができる。
なお、上述の実施の形態においては、スマートフォン2aの撮影部14が3枚(複数)の推計用画像を撮影する場合を例に挙げて説明したが、撮影部14が1枚の推計用画像を撮影する構成にしてもよい。この場合には、クラウドサーバ4において検出部33及び演算部35を備える必要はなく、推計部32による推計結果をスマートフォン2a~2cに送信する。
また、上述の実施の形態においては、クラウドサーバ4の検出部33が1個の推計結果と他2個の推計結果との差が閾値を超えている場合に1個の推計結果が異常値であると検出している。即ち、他2個の推計結果との比較から異常値を検出しているが、同一店舗における他日(若しくは他の月・他の同じ曜日)の推計結果との比較から異常値を検出する構成にしてもよい。具体的には、検出部33は、同一店舗にて他日のおしぼり推計枚数が40~60枚であるにも拘わらず、当日の推計結果が150枚である場合、当日の推計結果が異常値であると検出し、クラウドサーバ4の制御部36は、通信部40を介して、スマートフォン2a~2cに再撮影するよう指示する。
また、上述の実施の形態においては、回収ボックスに収容されているおしぼりの密度が所定密度より大きいか否かを配送員がスマートフォン2a~2cの入力部12を介して入力しているが、クラウドサーバ4の推計部32において推計用画像に基づいておしぼりの密度を検出する構成にしてもよい。具体的には、推計用画像の画像解析からおしぼりの部分とおしぼりでない部分(おしぼりとおしぼりとの間の隙間)とを抽出し、抽出結果に基づいておしぼりの密度を検出する。また、第1学習モデル22及び第2学習モデル23に代えて1つの機械学習モデルを備え、クラウドサーバ4の推計部32においてこの機械学習モデルを用いて推計用画像の表面の様子(推計用画像に写る使用済おしぼりの最表面の状態)から密度を推定し、密度推定結果を加味した状態で使用済おしぼりの枚数を推定してもよい。
また、上述の実施の形態においては、回収ボックスに収容されているおしぼりの密度が所定密度より大きい場合には第1学習モデル22、所定密度以下の場合には第2学習モデル23を用いておしぼりの枚数を推計しているが、所定密度より大きいか否かを判別するための学習モデル(密度判別学習モデル)を搭載してもよい。この場合には、密度判別学習モデルを用いて所定密度より大きいか否かを判別し、判別結果から第1学習モデル22または第2学習モデル23を選択する。
また、上述の実施の形態においてニューラルネットワークを用いて第1学習モデル22または第2学習モデル23を作成する際、及び第1学習モデル22または第2学習モデル23を用いて使用済おしぼりの枚数を推計する際、入力層に入力される学習用画像または推計用画像の画素データを、回収ボックスの外枠より内側のみの画像の画素データに限定してもよい。即ち、回収ボックスの外枠より外側の画像の画素データを削除した学習用画像及び推計用画像(回収ボックスの外枠より外側であると判別された画像の画素データを0とした学習用画像及び推計用画像)を用いてもよい。これにより枚数情報とは本来無関係の箱外部の物体の写り込みによる精度低下を防止でき、おしぼり枚数の推計に係る効率化を図ることができる。
次に、図面を参照して本発明の第2の実施の形態に係るおしぼり管理システムについて説明する。なお、この第2の実施の形態に係るおしぼり管理システムについては、図1及び図2に示すおしぼり管理システム1の構成と同一の構成には同一の符号を用い、その図示及び説明を省略する。
第2の実施の形態に係るスマートフォン2aの表示制御部34は、図3に示す画面18aに代えて、図7に示す店舗及びおしぼり情報を入力する画面18d、図4に示す回収登録画面18bに代えて、図8に示す推計部32による推計結果を示す回収登録画面18e等を表示部18に表示させる。また、第2の実施の形態に係るおしぼり管理システムにおいては、クラウドサーバ4の推計部32による推計枚数を、スマートフォン2a~2cにおいて任意に修正することができる。具体的には、表示部18に図8に示す画面18eが表示され、配送員が入力部12を介して枚数修正ボタンを押下(タッチ)すると、表示部18におしぼりの枚数を入力する画面が表示される。配送員が入力部12を介しておしぼりの枚数を入力すると、配送員が入力したおしぼりの枚数が修正枚数結果(正解ラベル)として回収後店舗情報に追加され、通信部20を介してクラウドサーバ4に送信される。クラウドサーバ4の通信部40は、推計部32による推計結果を修正した使用済おしぼりの修正枚数結果を追加した回収後店舗情報を受信し、取得部29は、修正枚数結果を追加した回収後店舗情報を取得する。推計結果を修正した修正枚数結果は、後述する修正済推計用画像データ64A(図9参照)に追加され、1次深層学習モデル66(図9参照)を作成する際に用いられる。
また、第2の実施の形態に係るクラウドサーバ4は、図2に示す第1学習モデル22及び第2学習モデル23に代えて、標準学習モデル61(図9参照)、第1種類学習モデル、及び第2種類学習モデルを備えている。
標準学習モデル61は、標準色(例えばオレンジ色)の回収ボックスに収容される標準色(例えば白色)及び標準サイズのおしぼりAの枚数を推計するための学習モデルである。なお、おしぼりBの場合にあっては、標準学習モデル61を用いたおしぼりAの推計枚数結果からおしぼりBの推計枚数結果となるように、おしぼりBの補正係数を用いて使用済おしぼりの推計枚数を補正する。おしぼりBのサイズはおしぼりAのサイズと異なるが、おしぼりA及びBのサイズの差は、おしぼりA及びCやおしぼりA及びDのサイズ差と比較して小さい。したがって、おしぼりBの推計枚数は、おしぼりAのための標準学習モデル61及び補正係数を用いて推計可能であるが、おしぼりC及びDの推計枚数は、おしぼりAのサイズと大きく異なるため、標準学習モデル61及び補正係数による推計が困難である。
第1種類学習モデルは、標準色の回収ボックスに収容される標準色のおしぼりCの枚数を推計するための学習モデルである。おしぼりCは、おしぼりA及びBより大きい(または小さい)サイズを有し、おしぼりAより需要が少ない。第2種類学習モデルは、標準色の回収ボックスに収容される標準色のおしぼりDの枚数を推計するための学習モデルである。おしぼりDは、おしぼりCと異なるサイズであって、おしぼりA及びBより大きい(または小さい)サイズを有し、おしぼりA及びCより需要が少ない。
標準学習モデル61、第1種類学習モデル、及び第2種類学習モデルは、第1の実施の形態に係る第1学習モデル22等と同様に、AIを用いて予め学習させたモデルである。標準学習モデル61は、図9に示すように、1次処理及び2次処理され作成された学習モデルである。1次処理においては、学習用画像データ62に、これまでに撮影された推計用画像データ64であって入力部12において枚数修正された修正済推計用画像データ64Aを追加して深層学習させた1次深層学習モデル66を作成する。
2次処理においては、学習用画像データ62、修正済推計用画像データ64A、及びこれまでに撮影された推計用画像データ64であって枚数修正されなかった無修正推計用画像データ64Bを1次深層学習モデル66により枚数推計(ラベリング)させたラベリング済データ64Cを用いて深層学習させた2次深層学習モデル、即ち標準学習モデル61を作成する。
一般的に学習させる画像データが多いほど高精度な学習モデルを作成することができるが、枚数修正されなかった無修正推計用画像データ64Bをそのまま学習用画像データとして用いるべきでない。無修正推計用画像データ64Bに含まれるおしぼり推計枚数の情報が実際の枚数または近似枚数(正解ラベル)であるか否か判別できないからである。しかしながら、初期学習モデル(学習用画像データ62のみを用いて学習させた学習モデル)より精度が上がった1次深層学習モデル66により無修正推計用画像データ64Bをラベリングするため、ラベリング済データ64Cのおしぼり推計枚数は、無修正推計用画像データ64Bのそれと比較して正解ラベルに近い。そして、学習用画像データ62、修正済推計用画像データ64A及びラベリング済データ64Cに基づく標準学習モデル(2次深層学習モデル)61は、学習用画像データ62及び修正済推計用画像データ64Aに基づく1次深層学習モデル66より、学習させる画像データが多いため、完成度が高く、おしぼりの枚数推計精度も向上する。また、推計用画像データ64は、学習用画像データ62と比較して、おしぼり回収場所特有のノイズ、例えば回収ボックスが置かれている地面の映り込み、日影の映り込みなどを含んでいるため、学習用画像データ62から取得することができないパラメーターを推計用画像データ64から取得することができる。
第1種類学習モデル(第2種類学習モデル)は、画像の特徴抽出(画像解析)が行われる浅い層(入力層及び入力層に近い中間層)において標準学習モデル61のパラメーターと同一のパラメーターを転用(ファインチューニング)し、おしぼり枚数の推計が行われる深い層(出力層に近い中間層及び出力層)においておしぼりC(おしぼりD)の学習用画像データを用いて学習させることにより作成された学習モデルである。おしぼりC(おしぼりD)はおしぼりAと比較して需要が少なく、おしぼりC(おしぼりD)の学習用画像データ及び推計用画像データはおしぼりAのそれより少ない。したがって、おしぼりC(おしぼりD)の学習用画像データ及び推計用画像データを用いてモデルを作成した場合、学習させる画像データが少ないため画像の特徴抽出を正確に行うことができず、高精度な学習モデルを作成することができない。しかしながら、第1種類学習モデル(第2種類学習モデル)は、データ数が多い標準学習モデル61のパラメーターを転用(ファインチューニング)するため、学習させるデータの少ないおしぼりC(おしぼりD)についても高精度なモデルを作成することができる。
図10は、第1種類学習モデルの正解ラベル及び推計枚数の平均二乗誤差を示すグラフであって、(A)は、おしぼりBの学習用画像データを用いて一から学習させた第1種類学習モデル、(B)は、浅い層において一般公開されている学習済モデルのパラメーターをファインチューニングし、深い層においておしぼりCの学習用画像データを用いて学習させることにより作成された学習モデル、(C)は、浅い層において標準学習モデル61のパラメーターをファインチューニングし、深い層においておしぼりCの学習用画像データを用いて学習させることにより作成された学習モデルである。図10に示すように、(C)は(A)及び(B)と比較して明らかに正解ラベルと推計枚数との誤差が少なく、浅い層においてデータ数の多いモデルのパラメーターをファインチューニングしたほうが高精度な学習モデルを作成することができる。
また、第2の実施の形態に係るクラウドサーバ4は、色補正部を備えている。色補正部は、スマートフォン2aの撮影部14により撮影された推計用画像の色、即ち3バイト(R.G.B)で構成されるRGBカラーのバイト数を検出し、使用済おしぼりの枚数を推計する前に、推計用画像の色を補正する。具体的には、撮影部14により撮影されクラウドサーバ4の取得部29において取得した推計用画像内の回収ボックスの色を、標準学習モデル61、第1種類学習モデル及び第2種類学習モデルを作成する際に用いた学習用画像内の回収ボックスの色(標準色)若しくは近似する色に補正する。推計用画像内の回収ボックスの色のバイト数をX.Y.Z、学習用画像内の回収ボックスの色(標準色)をR1.G1.B1とした場合、(1)R.G.B=X.Y.Zのバイト配列を(2)R.B.G=X.Y.Z、(3)G.R.B=X.Y.Z、(4)G.B.R=X.Y.Z、(5)B.R.G=X.Y.Z及び(6)B.G.R=X.Y.Zに入れ替えることにより色変換し、(1)~(6)の中から最も近似する値(X.Y.Z≒R1.G1.B1)を選択する。この実施の形態では、おしぼりA~Dの色は白(255,255,255)であるから色変換してもおしぼりA~Dの色は変化しない。
次に、図面を参照して、第2の実施の形態に係るおしぼり管理システムを用いて回収ボックスに収容された使用済おしぼりの枚数を推計するおしぼり枚数推計方法について説明する。図11は、回収ボックスに収容された使用済おしぼりの枚数を推計するためにおしぼり管理システムが実行する処理について説明するためのフローチャートである。
まず、スマートフォン2aの制御部10は、回収前店舗情報を取得する(ステップS20)。なお、ステップS20の処理は、図6に示すステップS10の処理と同一のため、説明を省略する。次に、制御部10の表示制御部34は、表示部18に図7に示す画面18dを表示させる(ステップS21)。そして、制御部10は、入力部12を介して入力された店コードを確認し、店舗情報24から店コードに紐付けされているおしぼりの種類(店舗が契約しているおしぼりの種類)を読み込む。なお、図7においては、店コード「XXXX」の店舗が契約しているおしぼりAが選択されている場合を例示している。
次に、制御部10の撮影制御部31は、ライブビュー画像58内の所定の位置(この実施の形態においてはライブビュー画像58の外枠)に回収ボックスの外枠が収まっていることを確認した後、撮影部14に推計用画像を撮影させる(ステップS22)。次に、制御部10は、通信部20を介して、入力部12により入力されたおしぼりの種類及びステップS22において撮影された推計用画像を、クラウドサーバ4に送信する(ステップS23)。
クラウドサーバ4の制御部36は、通信部40を介して、おしぼりの種類及び推計用画像をスマートフォン2aから受信すると(ステップS40)、取得部29においてこれらを取得する。次に、制御部36は、おしぼりの種類に基づき、使用済おしぼりの枚数推計に用いる学習モデルを選択し、選択された学習モデルを読み込む(ステップS41)。即ち、おしぼりAが選択されている場合には標準学習モデル61、おしぼりBが選択されている場合には標準学習モデル61及び補正係数、おしぼりCが選択されている場合には第1種類学習モデル、おしぼりDが選択されている場合には第2種類学習モデルを読み込む。
次に、制御部36は、ステップS22において撮影した推計用画像に写る回収ボックスの色を補正する(ステップS42)。具体的には、制御部36は、色補正部において推計用画像の3バイト(R.G.B)で構成されるRGBカラーのバイト数を検出し、R.G.Bのバイト配列を入れ替えることにより色変換する。そして制御部36は、色変換した6種類の中から、標準学習モデル61、第1種類学習モデル及び第2種類学習モデルを作成する際に用いた学習用画像内の回収ボックスの色(標準色)に最も近似するものを選択する。
次に、制御部36の推計部32は、使用済おしぼりの枚数を推計する(ステップS43)。推計部32は、おしぼりの種類が「おしぼりA」の場合には標準学習モデル61を用いて使用済おしぼりの枚数を推計する。おしぼりの種類が「おしぼりB」の場合には第1学習モデル22を用いて使用済おしぼりの枚数を推計後、推計結果におしぼりBの補正係数を掛け合わせることにより使用済おしぼりの枚数を補正する。おしぼりの種類が「おしぼりC」の場合には第1種類学習モデルを用いて使用済おしぼりの枚数を推計する。おしぼりの種類が「おしぼりD」の場合には第2種類学習モデルを用いて使用済おしぼりの枚数を推計する。具体的な処理については、図6に示すステップS31の処理と同一のため、説明を省略する。
制御部36は、使用済おしぼりの枚数の推計を終えると、通信部40を介して、ステップS43において推計した使用済おしぼり枚数の推計結果を、スマートフォン2aに送信する(ステップS44)。
スマートフォン2aの制御部10は、通信部20を介して、使用済おしぼり枚数の推計結果を、クラウドサーバ4から受信すると(ステップS24)、表示制御部34を介して、図8に示す回収登録画面18eを表示部18に表示させる(ステップS25)。次に、制御部10は、配送員により入力部12を介して枚数修正ボタンが押下されたか否かを判別する(ステップS26)。ステップS26において枚数修正ボタンが押下されたと判別された場合には(ステップS26:Yes)、制御部10は、表示制御部34を介して、図示しない枚数修正入力画面を表示部18に表示させる(ステップS27)。そして、制御部10は、配送員により入力部12を介して入力された使用済おしぼりの修正枚数(推計結果の修正枚数)を取得し、入力された枚数を修正枚数結果(正解ラベル)として回収後店舗情報に追加する。そして、制御部10の表示制御部34は、配送員から入力部12を介してOKボタンの入力を確認すると、図5に示す納品登録画面18cを表示部18に表示させ、ステップS28の処理に進む。
一方、ステップS26において枚数修正ボタンが押下されずに、OKボタンが押下された場合には(ステップS26:No)、制御部10の表示制御部34は、図5に示す納品登録画面18cを表示部18に表示させ、ステップS28の処理に進む。具体的な処理については、図6に示すステップS18の処理と同一のため、説明を省略する。
クラウドサーバ4の制御部36は、通信部40を介して、推計結果、修正枚数結果及び納品枚数等を追加した回収後店舗情報を、スマートフォン2aから受信すると、データ記憶部38に記憶させる(ステップS45)。
図11のフローチャートに示す処理を、配送コースに含まれるすべての店舗に対して行う。なお、ステップS28及びステップS45の処理は、ステップS18及びステップS33の処理と同様に、一店一店行う代わりに、回収後店舗情報をスマートフォン2aのデータ記憶部16に記憶させておき、数店舗の回収後店舗情報をまとめてクラウドサーバ4に送信するようにしてもよい。基幹システム6は、必要に応じてクラウドサーバ4から回収後店舗情報を受信し、データ記憶部48の店舗情報54を更新する。
第2の実施の形態に係るおしぼり管理システムによれば、回収された使用済おしぼりの枚数を一枚一枚数えることなく、迅速に推計することができる。そして、使用済おしぼりの枚数を店舗ごとに管理することにより、おしぼりの契約枚数、季節変動に伴う追加枚数、おしぼりの回収枚数、紛失したおしぼりの枚数、店舗に在庫されている枚数等を適切に管理することができる。
また、第2の実施の形態に係るクラウドサーバ4に含まれるおしぼり枚数推計システムを用いれば、おしぼり回収経験の浅い配送員であっても使用済おしぼりの枚数を容易に推計することができる。また、様々な配送員がおしぼりを回収する場合であっても使用済おしぼりの枚数をムラなく推計することができる。
また、第2の実施の形態に係るクラウドサーバ4によれば、2次深層学習モデルである標準学習モデル61を用いるため、使用済おしぼりの枚数を精度よく推計することができる。また、学習用画像データ及び推計用画像データの少ないおしぼりC及びDの第1種類学習モデル及び第2種類学習モデルにおいて、データ数が多い標準学習モデル61のパラメーターをファインチューニングするため、高精度な学習モデルを作成することができる。
また、第2の実施の形態に係るクラウドサーバ4によれば、色補正部を備えているため、学習モデル作成に用いた学習用画像の回収ボックスの色と撮影部14により撮影された推計用画像の回収ボックスの色とが異なる場合、推計用画像の回収ボックスの色を学習用画像の回収ボックスの色に手軽に近似させることができる。したがって、回収ボックスの色が異なることによる使用済おしぼりの推計枚数の精度低下を抑制することができる。
なお、第2の実施の形態に係るクラウドサーバ4おいては、色補正部を備え、推計用画像の回収ボックスの色を学習用画像の回収ボックスの色に近似させる処理を行っているが、色補正部を備えずに、RGBのバイト配列を入れ替えた6種類それぞれについて作成された学習モデルを搭載する構成にしてもよい。この場合には、推計用画像の回収ボックスの色を検出し、検出結果に基づいて最適な学習モデルを選択する。また、第2の実施の形態においては、クラウドサーバ4が色補正部を備えているが、スマートフォン2a~2cが色補正部を備えるようにしてもよい。この場合には、スマートフォン2a~2cにおいてまず推計用画像の回収ボックスの色を補正し、色補正後の推計用画像をクラウドサーバ4に送信する。
1…おしぼり管理システム、2a~2c…スマートフォン、4…クラウドサーバ、6…基幹システム、8…ネットワーク、10…制御部、12…入力部、14…撮影部、16…データ記憶部、18…表示部、20…通信部、22…第1学習モデル、23…第2学習モデル、24…店舗情報、26…補正係数、29…取得部、30…取得部、31…撮影制御部、32…推計部、33…検出部、34…表示制御部、35…演算部、36…制御部、38…データ記憶部、40…通信部、42…制御部、44…入力部、46…表示部、48…データ記憶部、50…通信部、52…配送コース情報、54…店舗情報、56…おしぼり情報、61…標準学習モデル、62…学習用画像データ、64…推計用画像データ、64A…修正済画像データ、64B…無修正推計用画像データ、66…1次深層学習モデル。

Claims (11)

  1. 回収ボックスに収容された使用済おしぼりを上方から撮影した学習用画像を入力値とし該使用済おしぼりの枚数を出力値とするニューラルネットワークにより学習させた学習モデルを記憶する学習モデル記憶部と、
    携帯端末において前記回収ボックスに収容された使用済おしぼりを上方から撮影した推計用画像を受信する受信部と、
    前記学習モデル記憶部に記憶されている前記学習モデルを用いて、前記受信部により受信した前記推計用画像から前記ニューラルネットワークにより前記使用済おしぼりの枚数を推計する推計部と、
    前記推計部により推計された推計結果を前記携帯端末に向けて送信する送信部と、
    前記推計結果を修正した修正枚数を取得する修正枚数取得部と、を備え、
    前記学習モデルは、
    前記学習用画像及び過去に撮影された前記推計用画像であって前記推計結果を修正した修正済推計用画像を前記入力値とし前記使用済おしぼりの枚数を前記出力値する前記ニューラルネットワークにより深層学習させた1次深層学習モデルを用いて、過去に撮影された前記推計用画像であって前記推計結果を修正していない無修正推計用画像から前記ニューラルネットワークにより前記使用済おしぼりの枚数を推計し、
    前記1次深層学習モデルによる前記使用済おしぼりの枚数の推計結果を用いて、前記学習用画像、前記修正済推計用画像及び前記無修正推計用画像を前記入力値とし前記使用済おしぼりの枚数を前記出力値とする前記ニューラルネットワークにより深層学習させた2次深層学習モデルであることを特徴とするサーバ。
  2. 前記学習モデル記憶部は、前記回収ボックスの外枠より外側の画像データを削除した前記学習用画像を用いて学習させた前記学習モデルを記憶し、
    前記推計部は、前記回収ボックスの外枠より外側の画像データを削除した前記推計用画像を用いて前記使用済おしぼりの枚数を推計することを特徴とする請求項1記載のサーバ。
  3. 前記推計用画像に写る前記回収ボックスの色を、前記学習用画像に写る前記回収ボックスの色または近似色に補正する色補正部を備えることを特徴とする請求項1または請求項2に記載のサーバ。
  4. 回収ボックスに収容された使用済おしぼりを上方から撮影した学習用画像を入力値とし該使用済おしぼりの枚数を出力値とするニューラルネットワークにより学習させた学習モデルを記憶する学習モデル記憶部と、
    携帯端末において前記回収ボックスに収容された使用済おしぼりを上方から撮影した複数の推計用画像を受信する受信部と、
    前記学習モデル記憶部に記憶されている前記学習モデルを用いて、前記受信部により受信した前記複数の推計用画像のそれぞれから前記ニューラルネットワークにより前記使用済おしぼりの枚数をそれぞれ推計する推計部と、
    前記使用済おしぼりの枚数に関する演算を行う演算部と、
    前記推計部により推計された複数の推計結果を前記携帯端末に向けて送信する送信部と、を備え、
    前記演算部は、前記推計部により推計された複数の推計結果の平均値を算出することを特徴とするサーバ。
  5. 前記複数の推計結果の異常値を検出する異常値検出部を更に備え、
    前記演算部は、前記異常値検出部により検出された前記異常値を除いた前記複数の推計結果の前記平均値を算出することを特徴とする請求項4記載のサーバ。
  6. 前記推計用画像に基づいて前記回収ボックス内における前記使用済おしぼりの密度を検出する密度検出部を更に備え、
    前記推計部は、前記密度検出部により検出された前記密度を用いて前記使用済おしぼりの枚数を推計することを特徴とする請求項4または請求項5記載のサーバ。
  7. 前記回収ボックス内における前記使用済おしぼりの密度が所定密度より大きいか否かを取得する密度取得部を更に備え、
    前記推計部は、前記密度取得部において取得した結果を用いて前記使用済おしぼりの枚数を推計することを特徴とする請求項4または請求項5記載のサーバ。
  8. 前記学習モデル記憶部は、前記学習用画像から前記回収ボックスの外枠及び前記回収ボックスに収容された使用済おしぼり群の外縁の輪郭を抽出し、抽出された前記回収ボックスの外枠に対する前記使用済おしぼり群の外縁の輪郭から前記使用済おしぼりの枚数を推計するためのパラメーターが組み込まれた前記学習モデルを記憶することを特徴とする請求項1~請求項7の何れか一項に記載のサーバ。
  9. おしぼりの種類を取得する種類取得部と、
    前記おしぼりの種類毎に設定された前記おしぼりの重さに基づく補正係数を記憶する補正係数記憶部と、を更に備え、
    前記推計部は、前記種類取得部により取得した前記おしぼりの種類の前記補正係数を前記補正係数記憶部から取得し、取得した前記補正係数を用いて前記使用済おしぼりの枚数を補正することを特徴とする請求項1~請求項8の何れか一項に記載のサーバ。
  10. 回収ボックスに収容された第1使用済おしぼりを上方から撮影した第1学習用画像を入力値とし前記第1使用済おしぼりとサイズが異なる前記回収ボックスに収容された第2使用済おしぼりの枚数を出力値とするニューラルネットワークにより学習させた学習モデルを記憶する学習モデル記憶部と、
    携帯端末において前記回収ボックスに収容された前記第2使用済おしぼりを上方から撮影した推計用画像を受信する受信部と、
    前記学習モデル記憶部に記憶されている前記学習モデルを用いて、前記受信部により受信した前記推計用画像から前記ニューラルネットワークにより前記第2使用済おしぼりの枚数を推計する推計部と、
    前記推計部により推計された推計結果を前記携帯端末に向けて送信する送信部と、
    を備え
    前記学習モデルは、
    前記ニューラルネットワークの入力層において前記第1学習用画像の画像データを用い、前記ニューラルネットワークの出力層において前記回収ボックスに収容された前記第2使用済おしぼりを上方から撮影した第2学習用画像の画像データを用いて学習させた学習モデルであることを特徴とするサーバ。
  11. 携帯端末、請求項1~請求項10の何れか一項に記載のサーバ及び基幹システムを備えるおしぼり管理システムであって、
    前記携帯端末は、
    おしぼりを配送する店舗、前記店舗が利用する前記おしぼりの種類、前記店舗へ納品した前記おしぼりの枚数、前記店舗から回収した前記おしぼりの枚数及び前記店舗における前記おしぼりの在庫枚数を含む回収前店舗情報を基幹システムから受信する第1情報受信部と、
    前記第1情報受信部により受信した前記回収前店舗情報に、前記推計結果を追加した回収後店舗情報を前記基幹システムに送信する第1情報送信部と、を備え、
    前記基幹システムは、
    前記回収前店舗情報を記憶する情報記憶部と、
    前記情報記憶部に記憶されている前記回収前店舗情報を前記携帯端末に送信する第2情報送信部と、
    前記携帯端末から送信される前記回収後店舗情報を受信する第2情報受信部と、
    前記第2情報受信部より受信した前記回収後店舗情報を前記情報記憶部に記憶させることにより、前記回収前店舗情報を更新する更新部と、
    を備えることを特徴とするおしぼり管理システム。
JP2021211871A 2021-12-27 2021-12-27 サーバ及びおしぼり管理システム Active JP7336503B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021211871A JP7336503B2 (ja) 2021-12-27 2021-12-27 サーバ及びおしぼり管理システム
US18/570,662 US20240281950A1 (en) 2021-12-27 2022-10-07 Server and oshibori management system
PCT/JP2022/037550 WO2023127224A1 (ja) 2021-12-27 2022-10-07 サーバ及びおしぼり管理システム
CN202280037178.6A CN117355854A (zh) 2021-12-27 2022-10-07 服务器及湿毛巾管理系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021211871A JP7336503B2 (ja) 2021-12-27 2021-12-27 サーバ及びおしぼり管理システム

Publications (2)

Publication Number Publication Date
JP2023096251A JP2023096251A (ja) 2023-07-07
JP7336503B2 true JP7336503B2 (ja) 2023-08-31

Family

ID=86998660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021211871A Active JP7336503B2 (ja) 2021-12-27 2021-12-27 サーバ及びおしぼり管理システム

Country Status (4)

Country Link
US (1) US20240281950A1 (ja)
JP (1) JP7336503B2 (ja)
CN (1) CN117355854A (ja)
WO (1) WO2023127224A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190130214A1 (en) 2017-10-30 2019-05-02 Sap Se Computer vision architecture with machine learned image recognition models
JP2020080003A (ja) 2018-11-12 2020-05-28 株式会社イシダ 教師データ生成方法、教師データ生成プログラム、教師データ生成装置、及び商品識別装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190130214A1 (en) 2017-10-30 2019-05-02 Sap Se Computer vision architecture with machine learned image recognition models
JP2020080003A (ja) 2018-11-12 2020-05-28 株式会社イシダ 教師データ生成方法、教師データ生成プログラム、教師データ生成装置、及び商品識別装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
堺 康行 ほか,深層学習によるレンタルおしぼり回収数の自動推定,情報処理学会全国大会講演論文集,Vol.83rd,No.1,2021年03月04日,p.1.125-1.126
業界新開発!「おしぼりAI 」アプリ スマホで撮影するだけで、おしぼり回収枚数をAIが自動測定,2021年11月25日,インターネット:<URL: https://www.atpress.ne.jp/news/286710>

Also Published As

Publication number Publication date
WO2023127224A1 (ja) 2023-07-06
US20240281950A1 (en) 2024-08-22
JP2023096251A (ja) 2023-07-07
CN117355854A (zh) 2024-01-05

Similar Documents

Publication Publication Date Title
JP4902562B2 (ja) 撮像装置、画像処理装置、制御方法およびプログラム
US20120321131A1 (en) Image-related handling support system, information processing apparatus, and image-related handling support method
CN111080493B (zh) 一种菜品信息识别方法、装置及菜品自助结算系统
JP2020008929A (ja) 身長算出システム、情報処理装置およびプログラム
JP2012023502A (ja) 撮影支援システム、撮影支援方法、サーバ、撮影装置およびプログラム
JP2019192082A (ja) 学習用サーバ、不足学習用画像収集支援システム、及び不足学習用画像推定プログラム
JP4200038B2 (ja) ファイル選択支援プログラムおよびファイル選択支援方法
JP7336503B2 (ja) サーバ及びおしぼり管理システム
CN108574803A (zh) 图像的选取方法、装置、存储介质及电子设备
US11748702B2 (en) Methods of determining status of position in shelf, shelves and non-transitory computer-readable storage media
JP2017005383A (ja) 監視制御システム
JP7004375B1 (ja) 携帯端末及びおしぼり管理システム
WO2022059404A1 (ja) 携帯端末及びおしぼり管理システム
JP6367169B2 (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP7289448B2 (ja) 物品識別システム及び物品識別システムを備えた会計処理システム
JP4818997B2 (ja) 顔検出装置及び顔検出プログラム
KR101348951B1 (ko) 차량 고객 관리 시스템 및 방법
JP4891119B2 (ja) 画像ソート装置および方法並びにプログラム
JP2023019521A (ja) 学習方法、プログラム及び画像処理装置
WO2023286652A1 (ja) 学習装置、予測装置および撮像装置
JP2019200642A (ja) 画像集生成プログラム、情報処理装置、及び画像集生成方法
JP2015154244A (ja) 画像処理装置、画像処理システム、および画像処理方法
CN110266939B (zh) 显示方法及电子设备、存储介质
JP6745930B1 (ja) 情報処理装置、方法、およびプログラム
JP5006822B2 (ja) プリント受付装置、プリント受付システム、サーバ装置、端末装置、プリントサイズ提案方法、プリントサイズ設定方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230821

R150 Certificate of patent or registration of utility model

Ref document number: 7336503

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150