JP2023127613A - 情報処理装置、情報処理方法、及び、プログラム - Google Patents
情報処理装置、情報処理方法、及び、プログラム Download PDFInfo
- Publication number
- JP2023127613A JP2023127613A JP2022031390A JP2022031390A JP2023127613A JP 2023127613 A JP2023127613 A JP 2023127613A JP 2022031390 A JP2022031390 A JP 2022031390A JP 2022031390 A JP2022031390 A JP 2022031390A JP 2023127613 A JP2023127613 A JP 2023127613A
- Authority
- JP
- Japan
- Prior art keywords
- product
- store
- video
- worker
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims description 82
- 238000003672 processing method Methods 0.000 title claims description 5
- 230000005477 standard model Effects 0.000 claims abstract description 48
- 230000009471 action Effects 0.000 claims description 42
- 238000000034 method Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 16
- 238000010411 cooking Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000011084 recovery Methods 0.000 description 3
- 230000003111 delayed effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002250 progressing effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 238000009957 hemming Methods 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】より適切に、商品の提供に関連する時間を出力する情報処理装置などを提供する。【解決手段】 本発明の情報処理装置は、標準モデルを取得する標準モデル手段と、店舗における、商品を提供するための作業者の動作の動画と、商品の状態の動画とを取得する動画取得手段と、店舗における作業者の動作の動画及び商品の状態の動画を用いて標準モデルに対する学習を行い、店舗における作業者の動作の動画と商品の状態の動画とを用いて商品の完成までの所要時間を判定する店舗用モデルを生成する学習手段と、商品に対する作業の開始を検出すると、作業者の動作の動画と商品の状態の動画とを店舗用モデルに適用して、商品の完成までの所要時間を取得する所要時間取得手段と、商品の完成までの所要時間を出力する出力手段とを含む。【選択図】図1
Description
本発明は、商品の情報に関し、特に、商品の提供に関連する情報に関する。
特許文献1は、料理を客に提供する時間を算出する料理提供時間管理装置を開示している。特許文献2は、注文した商品の調理に関連する画像を提供する情報提供装置を開示している。
調理器具の種類、数、及び、配置は、店舗ごとに異なる場合がある。また、作業者は、店舗ごとに異なる。そのため、同じ料理を提供する場合でも、作業を開始してから料理を提供可能となるまでの時間は、店舗ごとに異なる。特許文献1及び特許文献2は、店舗ごとの時間については開示していない。
本発明の目的は、より適切に、商品の提供に関連する時間を出力する情報処理装置などを提供することにある。
本発明の一形態における情報処理装置は、標準モデルを取得する標準モデル手段と、店舗における、商品を提供するための作業者の動作の動画と、商品の状態の動画とを取得する動画取得手段と、店舗における作業者の動作の動画及び商品の状態の動画を用いて標準モデルに対する学習を行い、店舗における作業者の動作の動画と商品の状態の動画とを用いて商品の完成までの所要時間を判定する店舗用モデルを生成する学習手段と、商品に対する作業の開始を検出すると、作業者の動作の動画と商品の状態の動画とを店舗用モデルに適用して、商品の完成までの所要時間を取得する所要時間取得手段と、商品の完成までの所要時間を出力する出力手段とを含む。
本発明の一形態における情報処理方法は、標準モデルを取得し、店舗における、商品を提供するための作業者の動作の動画と、商品の状態の動画とを取得し、店舗における作業者の動作の動画及び商品の状態の動画を用いて標準モデルに対する学習を行い、店舗における作業者の動作の動画と商品の状態の動画とを用いて商品の完成までの所要時間を判定する店舗用モデルを生成し、商品に対する作業の開始を検出すると、作業者の動作の動画と商品の状態の動画とを店舗用モデルに適用して、商品の完成までの所要時間を取得し、商品の完成までの所要時間を出力する。
本発明の一形態におけるプログラムは、標準モデルを取得する処理と、店舗における、商品を提供するための作業者の動作の動画と、商品の状態の動画とを取得する処理と、店舗における作業者の動作の動画及び商品の状態の動画を用いて標準モデルに対する学習を行い、店舗における作業者の動作の動画と商品の状態の動画とを用いて商品の完成までの所要時間を判定する店舗用モデルを生成する処理と、商品に対する作業の開始を検出すると、作業者の動作の動画と商品の状態の動画とを店舗用モデルに適用して、商品の完成までの所要時間を取得する処理と、商品の完成までの所要時間を出力する処理とをコンピュータに実行させる。
本発明に基づけば、より適切に、商品の提供に関連する時間を出力するとの効果を奏することができる。
次に、本発明における実施形態について図面を参照して説明する。各図面は、実施形態を説明するためのものである。ただし、実施形態は、各図面の記載に限られるわけではない。また、各図面における同様の構成には、同じ番号を付し、その繰り返しの説明を、省略する場合がある。
各実施形態において、商品は、提供するために、店舗における作業を必要とする物品である。例えば、商品は、店舗で調理する料理である。この場合、商品を提供するための作業は、例えば、調理である。ただし、商品は、料理に限定されない。例えば、商品は、裾上げなど一部を修正する衣装、又は、組立パーソナルコンピュータのような指定された部品を組み合わせる機器でもよい。これらの場合、作業は、例えば、衣装の修正でもよいし、機器の組立でもよい。作業は、商品を作成する作業に加え、梱包など商品を提供するために必要な作業を含んでもよい。なお、以下の説明では、商品の一例として料理を用いる。
<第1の実施形態>
第1の実施形態にかかる情報処理装置10の構成について、図面を参照して説明する。図1は、第1の実施形態にかかる情報処理装置10の構成の一例を示すブロック図である。情報処理装置10は、標準モデル取得部101と、動画取得部102と、学習部103と、所要時間取得部104と、出力部105とを含む。
第1の実施形態にかかる情報処理装置10の構成について、図面を参照して説明する。図1は、第1の実施形態にかかる情報処理装置10の構成の一例を示すブロック図である。情報処理装置10は、標準モデル取得部101と、動画取得部102と、学習部103と、所要時間取得部104と、出力部105とを含む。
標準モデル取得部101は、標準モデルを取得する。標準モデルは、店舗において、店舗用モデルを生成するための学習に用いられるモデルである。店舗用モデルは、後ほどさらに説明するが、店舗において商品の完成までの所要時間を取得するために用いられるモデルである。そのため、標準モデルは、少なくとも所要時間を判定するモデルである。例えば、標準モデル取得部101は、チェーンストア又はフランチャイズを管理する管理本部などから、標準モデルを取得する。管理本部などは、予め、商品に対して標準となる作業の動画と商品の状態の動画とを用いた学習の結果として、標準モデルを作成しておく。標準モデルは、店舗において提供する商品それぞれに対応したモデルでもよいし、複数の商品に対応したモデルでもよい。また、標準モデルは、所要時間に加え、商品の完成を判定するモデルでもよい。
動画取得部102は、店舗における、商品を提供するための作業者の動作の動画と、商品の状態の動画とを取得する。動画取得部102が取得する動画は、作業者の動作と商品の状態との両方が判別可能であればよい。例えば、動画取得部102は、店舗に設置されたカメラから、作業者の動作の動画と、商品の状態の動画とを取得する。例えば、商品が料理の場合、作業者の動作は、調理の動作である。商品の状態は、調理される材料の状態である。なお、動画取得部102は、作業者の動作の動画と商品の状態の動画として、それぞれの動画を取得してもよいし、作業者の動作と商品の状態との両方を含む動画を取得してもよい。なお、以下の説明では、特に区別が必要な場合を除いて、作業者の動作の動画と、商品の状態との動画とをまとめて、「動画」と呼ぶ場合もある。
学習部103は、動画取得部102が取得した店舗における作業者の動作の動画及び商品の状態の動画を用いて標準モデルに対する学習を行うことにより、店舗用モデルを生成する。つまり、店舗用モデルは、店舗における作業者の動作と商品の状態とを学習させたモデルである。さらに、店舗用モデルは、店舗における作業者の動作の動画と商品の状態の動画とを用いて、店舗における商品の完成までの所要時間を判定するモデルである。学習部103が用いる学習は、特に限定されない。例えば、学習部103は、作業者の動作の動画に骨格検知の技術を適用して、作業者の動作を判定する。さらに、学習部103は、商品の動画に物体判別の技術を適用して、商品の状態を判定する。そして、学習部103は、判定した作業者の動作と商品の状態とを用いた学習を実行して、店舗用モデルを生成してもよい。店舗における作業者が複数の場合、学習部103は、店舗における複数の作業者それぞれの動画を用いる学習を実行してもよい。この場合、学習部103は、店舗における全ての作業者の動画を用いる学習を実行してもよいし、一部の作業者の動画を用いる学習を実行してもよい。標準モデルが商品ごとのモデルの場合、学習部103は、商品ごとに学習を実行して、商品ごとの店舗用モデルを取得する。標準モデルが複数の商品に対応したモデルの場合、学習部103は、複数の商品に対応した学習を実行して、店舗用モデルを取得する。なお、店舗用モデルは、所要時間に加え、商品の完成を判定するモデルでもよい。
このように、学習部103は、店舗における作業者の動作と、商品の状態とを用いて、店舗用モデルを取得する。そのため、店舗用モデルは、店舗それぞれに対応して、適切に、商品の完成までの所要時間を判定する。さらに、店舗用モデルは、店舗における作業者の動作と商品の状態との両方を用いる。そのため、店舗用モデルは、商品の状態、又は、作業者の動作のどちらかを用いる場合に比べ、より正確な所要時間を判定する。
所要時間取得部104は、商品に対する作業の開始を検出すると、動画取得部102が取得した作業者の動画と商品の状態の動画とを店舗用モデルに適用して、商品の完成までの所要時間を取得する。例えば、所要時間取得部104は、作業者が入力した作業開始の情報に基づいて、商品に対する作業の開始を検出する。そして、作業の開始を検知すると、所要時間取得部104は、動画取得部102から、商品の対する作業者の動画と、商品の状態の動画とを取得する。例えば、所要時間取得部104は、動画取得部102から、店舗に設置されたカメラが撮影した動画を取得する。所要時間取得部104は、作業の開始時刻を取得してもよい。そして、所要時間取得部104は、取得した動画を店舗用モデルに適用して、商品が完成するまでの所要時間を取得する。所要時間取得部104は、商品の完成まで、動画の取得と所要時間の取得の動作を繰り返す。所要時間取得部104は、商品の完成の判断のため、店舗用モデルから商品の完成の判定を取得してもよい。あるいは、所要時間取得部104は、作業者が入力した作業の完了を、商品の完成とみなしてもよい。
出力部105は、商品の注文を管理する管理サーバなどの装置に、商品の完成までの所要時間を出力する。商品の注文者は、商品の完成までの所要時間を参照して、適切なタイミングで商品を受け取るための行動を開始できる。例えば、店舗で商品を受け取る場合、注文者は、店舗までの移動時間と、商品の完成までの所要時間とを考慮して、待ち時間のないように店舗に向かうことができる。あるいは、出力部105は、店舗内のモニタなど店舗内の装置に、所要時間を出力してもよい。この場合、例えば、店舗の到着した注文者は、モニタを参照して、商品を受け取るまでの所要時間を把握できる。所要時間取得部104が店舗用モデルから商品の完成の判断を取得する場合、出力部105は、判定された商品の完成を出力してもよい。
次に、図面を参照して、情報処理装置10の動作を説明する。図2は、情報処理装置10における店舗用モデルを取得する動作の一例を示すフロー図である。情報処理装置10は、商品ごとに以下の動作を繰り返す(ステップS201)。まず、標準モデル取得部101は、対象となる商品の標準モデルを取得する(ステップS202)。そして、情報処理装置10は、対象となる店舗の作業者それぞれに対して以下の動作を繰り返す(ステップS203)。
動画取得部102は、作業者の動作の動画と商品の状態の動画とを取得する(ステップS204)。学習部103は、動画を用いて店舗用モデルを生成する(ステップS205)。なお、詳細には、ステップS205における学習部103の動作は、次の通り、1回目の動作と、2回目以降の動作とで異なるモデルを用いる動作となる。1回目の動作の場合、学習部103は、動画を用いて標準モデルに対する学習を行い、店舗用モデルを生成する。2回目以降の動作において、学習部103は、動画を用いて前回生成した店舗用モデルに対する学習を行い、修正された店舗用モデルを生成する。情報処理装置10は、対象となる全ての作業者に対して、ステップS204及びS205を繰り返す。そして、上記の動作の結果として、情報処理装置10は、店舗用モデルを取得する。
なお、図2は、標準モデルが商品それぞれに対応したモデルの場合の動作である。標準モデルが、複数の商品に対応するモデルの場合、情報処理装置10は、まず、標準モデルを取得し(ステップS202)、それから、対象となる商品すべてに対して、ステップS202を除いた上記の動作を繰り返して、店舗用モデルを生成すればよい。
次に、図面を参照して、情報処理装置10における所要時間を出力する動作を説明する。図3は、情報処理装置10における所要時間を出力する動作の一例を示すフロー図である。所要時間取得部104は、商品に対する作業の開始を検出すると、以下の作業を開始する(ステップS211)。動画取得部102は、店舗における作業者の動作の動画と、商品の状態の動画とを取得する(ステップS212)。所要時間取得部104は、作業者の動作の動画と、商品の状態の動画とを店舗用モデルに適用して、所要時間を取得する(ステップS213)。そして、出力部105は、所要時間を出力する(ステップS214)。情報処理装置10は、上記動作を、商品が完成するまで、繰り返す(ステップS215)。
このように、情報処理装置10は、店舗における作業者の動作と、その作業における商品の状態とに基づいた学習の結果として店舗用モデルを取得する。そして、情報処理装置10は、その店舗用モデルを用いて、商品が完成するまでの所要時間を取得する。そのため、情報処理装置10は、商品の提供に関連する時間として、店舗それぞれに対応した、より適切な所要時間を出力できる。その結果、例えば、商品を注文者は、所要時間を参照して商品を取りに行くための動作の開始時刻を調整するなど、商品の取得における無駄な時間を削減できる。
<第2実施形態>
第2実施形態にかかる情報処理装置11は、所要時間に加え、店舗の作業者に対する情報を出力する。図4は、第2実施形態にかかる情報処理装置11の構成の一例を示すブロック図である。情報処理装置11は、情報処理装置10の構成に加え、指示判定部106と、指示保存部107とを含む。以下、第2実施形態において、第1実施形態とは異なる構成及び動作を中心に説明する。
第2実施形態にかかる情報処理装置11は、所要時間に加え、店舗の作業者に対する情報を出力する。図4は、第2実施形態にかかる情報処理装置11の構成の一例を示すブロック図である。情報処理装置11は、情報処理装置10の構成に加え、指示判定部106と、指示保存部107とを含む。以下、第2実施形態において、第1実施形態とは異なる構成及び動作を中心に説明する。
標準モデル取得部101は、第1実施形態の標準モデル取得部101と同様に、標準モデルを取得する。ただし、第2実施形態の標準モデル取得部101は、所要時間に加え、作業の状況を判定する標準モデルを取得する。作業の状況は、例えば、作業の遅れ、又は、作業の進みである。学習部103は、第1実施形態の学習部103と同様に、動画と標準モデルとを用いた学習の結果として、店舗用モデルを取得する。ただし、第2実施形態の学習部103は、所要時間に加え、作業の状況を判定する標準モデルを取得する。例えば、学習部103は、学習に用いる作業者の動作の動画及び商品の状態の動画として、遅れとなる場合の動画、進みとなる場合の動画、及び、標準的な場合の動画とを用意する。そして、学習部103は、これらの動画を用いた学習を実行して、店舗用モデルを取得する。なお、学習部103は、動画を用いる学習において、動画におけるタイムコードなどの時間情報を用いてよい。そして、第2実施形態の所要時間取得部104は、店舗用モデルを用いて、所要時間に加え、作業の状況を取得する。
指示保存部107は、作業の状況に対応した、作業者への指示を保存する。例えば、予め、店舗の管理者は、指示保存部107に、作業者に対する指示を保存する。作業者に対する指示は、例えば、作業が遅れている場合の対する挽回策、又は、作業が進んでいる場合に対する追加作業などであるが、これらに限定されない。挽回策は、例えば、応援の依頼であるが、これに限定されない。追加作業は、例えば、並列に進める追加作業などであるが、これに限定されない。
指示判定部106は、作業の状況に対応して、作業者に対する指示を判定する。例えば、指示判定部106は、所要時間取得部104から作業の状況を取得する。そして、指示判定部106は、作業の状況に対応した作業者への指示を、指示保存部107から取得する。例えば、作業状態が遅れている場合、指示判定部106は、指示保存部107から挽回策を取得してもよい。あるいは、作業が進んでいる場合、指示判定部106は、指示保存部107から追加作業を取得してよい。そして、指示判定部106は、取得した指示を出力部105に出力する。出力部105は、店舗のモニタなどの装置に、作業者への指示を出力する。作業者は、出力された指示に対応して、適切な作業を実行すればよい。
このように、情報処理装置11は、店舗における適切な情報として、商品の完成までの所要時間に加え、作業の状況に対応した作業者への指示を出力する。その結果、店舗の作業者は、その情報に基づいて、商品に対する作業として、適切な行動を実行できる。
<情報処理装置を利用するシステム>
次に、情報処理装置10及び11の説明として、情報処理装置10を用いて、情報処理装置10及び11を利用するシステムについて説明する。図5は、情報処理装置10を利用するシステムの一例を示すブロック図である。図6は、システムの概念図である。図5及び6において、情報処理装置10は、管理サーバ20と、タッチパネル40と、カメラ50とに接続されている。管理サーバ20は、さらに、端末装置30と接続されている。次に、システムの各構成を説明する。
次に、情報処理装置10及び11の説明として、情報処理装置10を用いて、情報処理装置10及び11を利用するシステムについて説明する。図5は、情報処理装置10を利用するシステムの一例を示すブロック図である。図6は、システムの概念図である。図5及び6において、情報処理装置10は、管理サーバ20と、タッチパネル40と、カメラ50とに接続されている。管理サーバ20は、さらに、端末装置30と接続されている。次に、システムの各構成を説明する。
端末装置30は、注文者が望む商品の注文を、管理サーバ20に出力する。さらに、端末装置30は、管理サーバ20から商品が完成するまでの所要時間を取得して表示する。端末装置30は、管理サーバ20から商品の完成の通知を取得して、商品の完成を表示してもよい。端末装置30は、例えば、注文者のスマートフォン又はタブレットであるが、これらに限定されない。
管理サーバ20は、端末装置30から商品の注文を取得すると、情報処理装置10に注文された商品を出力する。そして、管理サーバ20は、情報処理装置10から、商品の所要時間を取得すると、所要時間を保存する。そして、管理サーバ20は、端末装置30から所要時間の問合せを取得すると、端末装置30に所要時間を出力する。管理サーバ20は、情報処理装置10から、商品の完成を取得すると、端末装置の30に商品の完成を通知してもよい。管理サーバ20は、例えば、チェーンストアのオーダーシステムであるが、これに限定されない。また、管理サーバ20は、物理的な装置ではなく、クラウドコンピューティングを利用した仮想的な装置又はシステムでもよい。
タッチパネル40は、店舗に設けられ、作業者などへの情報の表示と、作業者の情報入力を受け付ける。カメラ50は、店舗における、作業者の動作の動画と、商品の状態の動画とを取得する。
情報処理装置10は、既に説明した動作を実行して店舗用モデルを取得する。その際、情報処理装置10は、店舗用モデルの学習に用いる動画として、カメラ50を用いて動画を取得する。そして、情報処理装置10は、管理サーバ20から商品の情報を取得すると、既に説明した動作を実行して、所要時間を管理サーバ20に出力する。情報処理装置10は、次のように、タッチパネル40及びカメラ50を利用してもよい。例えば、商品の情報を取得すると、情報処理装置10は、商品をタッチパネル40に出力する。タッチパネル40は、商品を表示する。店舗の作業者は、商品に対する作業の開始において、タッチパネル40に表示された商品をペン又は指など選択する。タッチパネル40は、選択された商品を情報処理装置10に通知する。情報処理装置10は、タッチパネル40から商品の選択の通知を取得して、商品に対する作業の開始を検出する。そして、情報処理装置10は、カメラ50から動画を取得して、既に説明した動作を実行し、所要時間を管理サーバ20に出力する。なお、情報処理装置11を用いる場合、情報処理装置11は、タッチパネル40に、作業者への指示を出力してもよい。なお、情報処理装置10は、例えば、店舗に設置されている店舗サーバであるが、これに限定されない。
図7は、図5及び6のシステムの動作の一例を示すシーケンス図である。端末装置30は、管理サーバ20に商品を出力する(ステップS311)。管理サーバ20は、端末装置30から商品を取得すると、商品を情報処理装置10に出力する(ステップS321)。情報処理装置10は、商品の情報を取得すると、タッチパネル40などに商品の情報を出力してもよい。そして、情報処理装置10は、商品に対する作業開始を検出すると、動作を開始する(ステップS331)。例えば、作業者が作業の開始においてタッチパネル40を用いて動作の開始を入力すると、情報処理装置10は、タッチパネル40からの情報に基づいて、作業の開始を検出する。そして、情報処理装置10は、作業者の動作の動画と、商品の状態の動画との取得を開始する(ステップS332)。例えば、情報処理装置10は、カメラ50との接続を確立する。そして、情報処理装置10は、作業者の動作の動画と、商品の状態の動画とを取得する(ステップS333)。例えば、情報処理装置10は、カメラ50からの動画を取得する。そして、情報処理装置10は、動画に基づいて所要時間を判定し、管理サーバ20に出力する(ステップS334)。
管理サーバ20は、情報処理装置10から取得した所要時間を保存する(ステップS322)。端末装置30は、管理サーバ20に所要時間を問い合わせる(ステップS312)。例えば、端末装置30は、注文者の指示に対応して、管理サーバの20に所要時間の問い合わせを出力する。管理サーバ20は、問い合わせに対応して、保存している所要時間を端末装置30に出力する(ステップS323)。端末装置30は、管理サーバ20から取得した所要時間を表示する(ステップS313)。端末装置30は、所要時間の問合せを繰り返してもよい。
所要時間を出力後、情報処理装置10は、商品が完成したか否かを判定する(ステップS335)。商品が完成していない場合(ステップS335でNo)、情報処理装置10は、動画の取得の動作(ステップS333)に戻る。商品が完成している場合(ステップS335でYes)、情報処理装置10は、商品の完成を管理サーバ20に出力する(ステップS336)。管理サーバ20は、情報処理装置10から商品の完成を取得すると、端末装置30に商品の完成を出力する(ステップS324)。管理サーバ20は、商品の完を保存してもよい。端末装置30は、管理サーバ20から商品の完成を取得すると、商品の完成を表示する。
<ハードウェア構成>
次に、情報処理装置10及び11のハードウェア構成について、情報処理装置10を用いて説明する。情報処理装置10の各構成部は、ハードウェア回路で構成されてもよい。あるいは、情報処理装置10において、各構成部は、ネットワークを介して接続した複数の装置を用いて、構成されてもよい。例えば、情報処理装置10は、クラウドコンピューティングを利用して構成されてもよい。あるいは、情報処理装置10において、複数の構成部は、1つのハードウェアで構成されてもよい。
次に、情報処理装置10及び11のハードウェア構成について、情報処理装置10を用いて説明する。情報処理装置10の各構成部は、ハードウェア回路で構成されてもよい。あるいは、情報処理装置10において、各構成部は、ネットワークを介して接続した複数の装置を用いて、構成されてもよい。例えば、情報処理装置10は、クラウドコンピューティングを利用して構成されてもよい。あるいは、情報処理装置10において、複数の構成部は、1つのハードウェアで構成されてもよい。
情報処理装置10は、中央処理装置(Central Processing Unit(CPU))と、読み取り専用メモリ(Read Only Memory(ROM))と、ランダム・アクセス・メモリ(Random Access Memory(RAM))とを含むコンピュータ装置として実現されてもよい。情報処理装置10は、上記構成に加え、さらに、ネットワークインターフェース回路(Network Interface Circuit(NIC))を含むコンピュータ装置として実現されてもよい。図8は、情報処理装置10のハードウェア構成の一例であるコンピュータ装置600の構成を示すブロック図である。
コンピュータ装置600は、CPU610と、ROM620と、RAM630と、記憶装置640と、NIC650とを含み、コンピュータ装置を構成している。CPU610は、ROM620及び記憶装置640の少なくとも一方からプログラムを読み込む。そして、CPU610は、読み込んだプログラムに基づいて、RAM630と、記憶装置640と、NIC650とを制御する。そして、CPU610を含むコンピュータ装置600は、これらの構成を制御し、図1に示されている、標準モデル取得部101と、動画取得部102と、学習部103と、所要時間取得部104と、出力部105としての各機能を実現する。なお、コンピュータ装置600は、図4に示されている指示判定部106としての機能を実現してもよい。
CPU610は、各機能を実現する際に、RAM630又は記憶装置640を、プログラム及びデータの一時的な記憶媒体として使用してもよい。また、CPU610は、コンピュータで読み取り可能にプログラムを記憶した記録媒体690が含むプログラムを、図示しない記録媒体読み取り装置を用いて読み込んでもよい。あるいは、CPU610は、NIC650を介して、図示しない外部の装置からプログラムを受け取り、RAM630又は記憶装置640に保存して、保存したプログラムを基に動作してもよい。
ROM620は、CPU610が実行するプログラム及び固定的なデータを記憶する。ROM620は、例えば、プログラマブルROM(Programmable-ROM(P-ROM))又はフラッシュROMである。RAM630は、CPU610が実行するプログラム及びデータを一時的に記憶する。RAM630は、例えば、ダイナミックRAM(Dynamic-RAM(D-RAM))である。記憶装置640は、コンピュータ装置600が長期的に保存するデータ及びプログラムを記憶する。記憶装置640は、指示保存部107としての機能を実現してもよい。記憶装置640は、CPU610の一時記憶装置として動作してもよい。記憶装置640は、例えば、ハードディスク装置、光磁気ディスク装置、ソリッド・ステート・ドライブ(Solid State Drive(SSD))又はディスクアレイ装置である。
ROM620と記憶装置640とは、不揮発性(non-transitory)の記録媒体である。一方、RAM630は、揮発性(transitory)の記録媒体である。そして、CPU610は、ROM620、記憶装置640、又は、RAM630に記憶されているプログラムを基に動作可能である。つまり、CPU610は、不揮発性記録媒体又は揮発性記録媒体を用いて動作可能である。
NIC650は、ネットワークを介した図示しない外部の装置とのデータのやり取りを中継する。NIC650は、例えば、ローカル・エリア・ネットワーク(Local Area Network(LAN))カードである。さらに、NIC650は、有線に限らず、無線を用いてもよい。
このように構成されたコンピュータ装置600は、プログラムに基づいて情報処理装置10の各構成における動作と同様の動作を実行して、情報処理装置10と同様の機能を実現する。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成及び詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
10 情報処理装置
11 情報処理装置
20 管理サーバ
30 端末装置
40 タッチパネル
50 カメラ
101 標準モデル取得部
102 動画取得部
103 学習部
104 所要時間取得部
105 出力部
106 指示判定部
107 指示保存部
600 コンピュータ装置
610 CPU
620 ROM
630 RAM
640 記憶装置
650 NIC
690 記録媒体
11 情報処理装置
20 管理サーバ
30 端末装置
40 タッチパネル
50 カメラ
101 標準モデル取得部
102 動画取得部
103 学習部
104 所要時間取得部
105 出力部
106 指示判定部
107 指示保存部
600 コンピュータ装置
610 CPU
620 ROM
630 RAM
640 記憶装置
650 NIC
690 記録媒体
Claims (9)
- 標準モデルを取得する標準モデル手段と、
店舗における、商品を提供するための作業者の動作の動画と、前記商品の状態の動画とを取得する動画取得手段と、
店舗における前記作業者の動作の動画及び前記商品の状態の動画を用いて前記標準モデルに対する学習を行い、店舗における前記作業者の動作の動画と前記商品の状態の動画とを用いて前記商品の完成までの所要時間を判定する店舗用モデルを生成する学習手段と、
前記商品に対する作業の開始を検出すると、前記動画取得手段が取得した前記作業者の動作の動画と前記商品の状態の動画とを前記店舗用モデルに適用して、前記商品の完成までの所要時間を取得する所要時間取得手段と、
前記商品の完成までの所要時間を出力する出力手段と
を含む情報処理装置。 - 前記学習手段は、前記店舗における複数の前記作業者それぞれの動画を用いる学習の結果として、前記店舗用モデルを取得する
請求項1に記載の情報処理装置。 - 前記商品に対する作業の状況に対応して、前記作業者に対する指示を判定する指示判定手段を含み、
前記出力手段は、前記作業者に対する指示を出力する
請求項1又は2に記載の情報処理装置。 - 標準モデルを取得し、
店舗における、商品を提供するための作業者の動作の動画と、前記商品の状態の動画とを取得し、
店舗における前記作業者の動作の動画及び前記商品の状態の動画を用いて前記標準モデルに対する学習を行い、店舗における前記作業者の動作の動画と前記商品の状態の動画とを用いて前記商品の完成までの所要時間を判定する店舗用モデルを生成し、
前記商品に対する作業の開始を検出すると、前記作業者の動作の動画と前記商品の状態の動画とを前記店舗用モデルに適用して、前記商品の完成までの所要時間を取得し、
前記商品の完成までの所要時間を出力する
情報処理方法。 - 前記店舗用モデルの取得は、前記店舗における複数の前記作業者それぞれの動画を用いる学習の結果として、前記店舗用モデルを取得する
請求項4に記載の情報処理方法。 - 前記商品に対する作業の状況に対応して、前記作業者に対する指示を判定し、
前記作業者に対する指示を出力する
請求項4又は5に記載の情報処理方法。 - 標準モデルを取得する処理と、
店舗における、商品を提供するための作業者の動作の動画と、前記商品の状態の動画とを取得する処理と、
店舗における前記作業者の動作の動画及び前記商品の状態の動画を用いて前記標準モデルに対する学習を行い、店舗における前記作業者の動作の動画と前記商品の状態の動画とを用いて前記商品の完成までの所要時間を判定する店舗用モデルを生成する処理と、
前記商品に対する作業の開始を検出すると、前記作業者の動作の動画と前記商品の状態の動画とを前記店舗用モデルに適用して、前記商品の完成までの所要時間を取得する処理と、
前記商品の完成までの所要時間を出力する処理と
をコンピュータに実行させるプログラム。 - 前記店舗用モデルを取得する処理は、前記店舗における複数の前記作業者それぞれの動画を用いる学習の結果として、前記店舗用モデルを取得する処理
をコンピュータに実行させる請求項7に記載のプログラム。 - 前記商品に対する作業の状況に対応して、前記作業者に対する指示を判定する処理と、
前記作業者に対する指示を出力する処理と
をコンピュータに実行させる請求項7又は8に記載のプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022031390A JP7295292B1 (ja) | 2022-03-02 | 2022-03-02 | 情報処理装置、情報処理方法、及び、プログラム |
JP2023092969A JP7529853B2 (ja) | 2022-03-02 | 2023-06-06 | 情報処理システム |
JP2024101038A JP2024116411A (ja) | 2022-03-02 | 2024-06-24 | 管理サーバ、管理方法、及び、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022031390A JP7295292B1 (ja) | 2022-03-02 | 2022-03-02 | 情報処理装置、情報処理方法、及び、プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023092969A Division JP7529853B2 (ja) | 2022-03-02 | 2023-06-06 | 情報処理システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7295292B1 JP7295292B1 (ja) | 2023-06-20 |
JP2023127613A true JP2023127613A (ja) | 2023-09-14 |
Family
ID=86772671
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022031390A Active JP7295292B1 (ja) | 2022-03-02 | 2022-03-02 | 情報処理装置、情報処理方法、及び、プログラム |
JP2023092969A Active JP7529853B2 (ja) | 2022-03-02 | 2023-06-06 | 情報処理システム |
JP2024101038A Pending JP2024116411A (ja) | 2022-03-02 | 2024-06-24 | 管理サーバ、管理方法、及び、プログラム |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023092969A Active JP7529853B2 (ja) | 2022-03-02 | 2023-06-06 | 情報処理システム |
JP2024101038A Pending JP2024116411A (ja) | 2022-03-02 | 2024-06-24 | 管理サーバ、管理方法、及び、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (3) | JP7295292B1 (ja) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022021437A (ja) * | 2020-07-22 | 2022-02-03 | 三菱電機株式会社 | 作業支援装置、作業支援方法及びプログラム |
-
2022
- 2022-03-02 JP JP2022031390A patent/JP7295292B1/ja active Active
-
2023
- 2023-06-06 JP JP2023092969A patent/JP7529853B2/ja active Active
-
2024
- 2024-06-24 JP JP2024101038A patent/JP2024116411A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022021437A (ja) * | 2020-07-22 | 2022-02-03 | 三菱電機株式会社 | 作業支援装置、作業支援方法及びプログラム |
Non-Patent Citations (3)
Title |
---|
YAGITATSU: "調理時間を機械学習で推定するようにした", [ONLINE], JPN6023018824, 27 November 2020 (2020-11-27), ISSN: 0005059452 * |
村井 浩一: "製造現場の作業分析結果を利用したカメラと深層学習による作業手順のリアルタイム監視システム", 情報処理学会論文誌(トランザクション) コンシューマ・デバイス&システム(CDS)[ONLINE], vol. 10, no. 3, JPN6023018826, September 2020 (2020-09-01), pages 1 - 10, ISSN: 0005059451 * |
渡辺 博己: "機械学習を用いた作業時間推定システムの開発", 岐阜県情報技術研究所研究報告, JPN6023018825, 2016, pages 15 - 21, ISSN: 0005059450 * |
Also Published As
Publication number | Publication date |
---|---|
JP2024116411A (ja) | 2024-08-27 |
JP7295292B1 (ja) | 2023-06-20 |
JP2023129403A (ja) | 2023-09-14 |
JP7529853B2 (ja) | 2024-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7236665B2 (ja) | 棚監視装置、棚監視方法、及び、棚監視プログラム | |
KR102596920B1 (ko) | 카메라 플랫폼 및 객체 재고 제어 | |
US11823126B2 (en) | Shelf label detection device, shelf label detection method, and shelf label detection program | |
TW201915885A (zh) | 貨物訂單處理方法、裝置、伺服器、購物終端及系統 | |
US11475657B2 (en) | Machine learning algorithm trained to identify algorithmically populated shopping carts as candidates for verification | |
US20210124954A1 (en) | Customer-based video feed | |
US11922092B2 (en) | Systems, methods, and apparatus for updating an electronic shelf label display | |
US11995684B2 (en) | System and method for populating a virtual shopping cart based on a verification of algorithmic determinations of items selected during a shopping session in a physical store | |
JP6788235B1 (ja) | 情報管理システム、情報管理方法 | |
KR102547986B1 (ko) | 사입대행 관리시스템, 사입대행사 단말, 및 각각의 정보 처리 방법 | |
JP2023127613A (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP6877806B6 (ja) | 情報処理装置、プログラム及び情報処理方法 | |
US11475656B2 (en) | System and method for selectively verifying algorithmically populated shopping carts | |
US11386647B2 (en) | System and method for processing a refund request arising from a shopping session in a cashierless store | |
JP2018125587A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2018150170A (ja) | 情報処理システム、情報処理方法およびプログラム | |
JP2018147139A (ja) | 情報処理システム、情報処理装置、情報処理方法および情報処理プログラム | |
WO2023188239A1 (ja) | 業務支援システム、業務支援装置、業務支援方法および記憶媒体 | |
US20230271314A1 (en) | Information processing apparatus, robot system, information processing method, manufacturing method for product, and recording medium | |
JP2024045867A (ja) | 待ち時間予測システム、待ち時間予測方法、およびプログラム | |
CN118893635A (zh) | 一种机械臂的控制方法以及机械臂系统 | |
JPWO2022102008A5 (ja) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230608 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7295292 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |