JPWO2020017160A1 - 作業系列識別装置、作業系列識別システム、作業系列識別方法、及びプログラム - Google Patents

作業系列識別装置、作業系列識別システム、作業系列識別方法、及びプログラム Download PDF

Info

Publication number
JPWO2020017160A1
JPWO2020017160A1 JP2020530917A JP2020530917A JPWO2020017160A1 JP WO2020017160 A1 JPWO2020017160 A1 JP WO2020017160A1 JP 2020530917 A JP2020530917 A JP 2020530917A JP 2020530917 A JP2020530917 A JP 2020530917A JP WO2020017160 A1 JPWO2020017160 A1 JP WO2020017160A1
Authority
JP
Japan
Prior art keywords
work
sequence identification
sensing information
individual
work sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020530917A
Other languages
English (en)
Other versions
JP7493155B2 (ja
Inventor
三浦 康史
康史 三浦
秦 秀彦
秀彦 秦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2020017160A1 publication Critical patent/JPWO2020017160A1/ja
Application granted granted Critical
Publication of JP7493155B2 publication Critical patent/JP7493155B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06398Performance of employee with respect to a job function
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/20Point-of-sale [POS] network systems
    • G06Q20/203Inventory monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/36Indoor scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/33Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Strategic Management (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Software Systems (AREA)
  • Development Economics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Educational Administration (AREA)
  • Databases & Information Systems (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • Game Theory and Decision Science (AREA)
  • Finance (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • General Factory Administration (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

移動物体が行う一連の個別作業を含む作業系列を精度良く識別する作業系列識別装置、作業系列識別システム、作業系列識別方法、及びプログラムを提供する。作業系列識別装置(1)は、一連の個別作業を含む作業系列を識別する。作業系列識別装置(1)は、作業領域内における移動物体の位置を時系列に示す第1のセンシング情報と、作業領域内の異なる位置における周囲環境状態を時系列に示す複数の第2のセンシング情報と、を取得する取得部(11,12)と、第1のセンシング情報に基づいて一連の個別作業の順序を特定し、第2のセンシング情報に基づいて一連の個別作業のそれぞれの作業内容を識別する制御部(12)と、を備える。

Description

本開示は、作業系列を識別する作業系列識別装置、作業系列識別システム、作業系列識別方法、及びプログラムに関する。
特許文献1は、行動状態推定システムを開示している。行動状態推定システムは、建物内の機器の使用情報、建物内のセンサにより検出されるセンサ情報、建物の部屋と機器及びセンサの配置関係情報とから、人の行動状態を推定している。これにより、建物内に複数の人がいる場合でも、カメラを使うことなく、各ユーザの行動状態を特定して、各ユーザによる消費電力を計算できるようにしている。
特許文献2は、動線管理システムを開示している。動線管理システムは、機器の利用情報とユーザが所持する無線端末の位置情報に基づいて、コピー操作又はプリント操作などの機器の操作内容の動線開始日時を推定している。これにより、機器を利用するユーザに対する適切な動線を判断できるようにしている。
特許第5087153号公報 特許第6318506号公報
本開示は、移動物体が行う一連の個別作業を含む作業系列を精度良く識別する作業系列識別装置、作業系列識別システム、作業系列識別方法、及びプログラムを提供する。
本開示の作業系列識別装置は、一連の個別作業を含む作業系列を識別する作業系列識別装置であって、作業領域内における移動物体の位置を時系列に示す第1のセンシング情報と、作業領域内の異なる位置における周囲環境状態を時系列に示す複数の第2のセンシング情報と、を取得する取得部と、第1のセンシング情報に基づいて一連の個別作業の順序を特定し、第2のセンシング情報に基づいて一連の個別作業のそれぞれの作業内容を識別する制御部と、を備える。
これらの概括的かつ特定の態様は、システム、方法、及びコンピュータプログラム、並びに、それらの組み合わせにより、実現されてもよい。
本開示の作業系列識別装置、作業系列識別システム、作業系列識別方法、及びプログラムによれば、複数のセンシング情報に基づいて、移動物体が行う一連の個別作業を含む作業系列を精度良く識別することができる。複数のセンシング情報は、作業領域内における移動物体の位置を時系列に示す第1のセンシング情報と、作業領域内の異なる位置における周囲環境状態を時系列に示す複数の第2のセンシング情報とを含む。本開示の作業系列識別装置、作業系列識別システム、作業系列識別方法、及びプログラムによれば、第1のセンシング情報に基づいて一連の個別作業の順序を決定し、第2のセンシング情報に基づいて個別作業の作業内容を識別する。これにより、精度良く作業系列を識別することができる。
第1実施形態の作業系列識別システムの構成を示すブロック図 カメラの位置を説明するための図 近傍センサの位置を説明するための図 近傍センサに含まれるセンサの種類を説明するための図 近傍センサの位置を示すセンサ位置情報の一例 作業場所の範囲を示す区分け情報の一例 作業種別毎の作業の開始位置と終了位置を示す開始終了情報の一例 カメラの映像データから得られる動線データの一例 近傍センサが生成する周囲環境データの一例 第1実施形態における個別作業の作業内容の識別の一例を説明するための図 作業系列情報の一例を説明するための図 作業系列の表示の一例を示す図 作業系列の表示におけるカメラ映像表示を示す図 作業系列の表示の別の例を示す図 第1実施形態における作業系列識別装置の動作を説明するためのフローチャート 図15の作業系列情報生成処理(ステップS4)の詳細を示すフローチャート 第2実施形態の作業系列識別システムの構成を示すブロック図 第2実施形態における個別作業の作業内容の識別の一例を説明するための図 第3実施形態における稼働率の算出を説明するためのフローチャート
(本開示の基礎となった知見)
従来、厨房又は工場などの従業員が従事する作業現場において、時間がかかる作業の見直し及び従業員毎にかかる時間のばらつきの作業効率改善などを行うために、一連の個別作業を含む作業系列における各個別作業にかかる時間を改善担当者が介入して計測していた。例えば、外食業界などにおいて、厨房内の調理作業の効率化を図る場合、改善担当者がカメラを厨房内に配置し、そのカメラ映像などを参照することによって、注文を受けてから料理を提供するまでの作業系列における各個別作業の作業内容を識別し、各個別作業にかかる時間をストップウォッチなどで計測していた。
近年、現場空間のプロセスを仮想空間で再現及び分析して現場に改善案を提案するようなサイバーフィジカルシステム(CPS)化が行われようとしている。CPS化においては、効率的に作業時間を計測するために、例えば、作業時間の算出を自動化することが要求される。そのためには、人が介入せずに、機器のみによって従業員が行う作業系列を識別することが望まれる。
本実施形態は、人物などの移動物体が行う一連の個別作業を含む作業系列を精度良く識別する作業系列識別装置を提供する。具体的には、作業系列識別装置は、カメラなどの遠隔センサが生成する広域センシング情報と、振動及び電磁波などを検知する近傍センサが生成する近傍センシング情報とに基づいて、作業系列を識別する。
(第1実施形態)
本実施形態では、移動物体が人であり、人が行う一連の個別作業が厨房内の作業である場合において、一連の個別作業を含む作業系列を識別する例について説明する。厨房内の一連の個別作業は、例えば、注文を受けてから料理を提供するまでの複数の個別作業を含む。複数の個別作業は、例えば、注文を受けること、冷蔵庫の開閉、食器棚の開閉、食材の盛りつけ、及び料理の提供などである。
1. 作業系列識別システムの構成
図1は、本実施形態の作業系列識別システム100の電気的構成を示している。作業系列識別システム100は、作業系列識別装置1、カメラ2、及び複数の近傍センサ3を含む。本実施形態では、作業系列識別装置1、カメラ2、及び複数の近傍センサ3は、食事を提供する店舗内に設置される。作業系列識別装置1とカメラ2は、例えば、有線で接続される。作業系列識別装置1は、例えば、無線ルータを介して複数の近傍センサ3に接続される。作業系列識別装置1は、カメラ2が生成した映像データと、複数の近傍センサ3が生成した周囲環境データとに基づいて、厨房内において従業員が行う一連の個別作業を含む作業系列を識別する。
1.1 作業系列識別装置の構成
作業系列識別装置1は、例えば、店舗内に設置されたパソコン又はタブレット端末等の種々の情報処理装置である。作業系列識別装置1は、通信部11、制御部12、記憶部13、入力部14、表示部15、及びバス16を備える。
通信部11は、所定の通信規格に準拠して外部機器との通信を行う回路を含む。所定の通信規格は、例えば、LAN、Wi−Fi(登録商標)、Bluetooth(登録商標)、USB、及びHDMI(登録商標)である。通信部11は、カメラ2から映像データを取得し、複数の近傍センサ3からそれぞれ周囲環境データを取得する。
制御部12は、半導体素子などで実現可能である。制御部12は、例えば、マイコン、CPU、MPU、GPU、DSP、FPGA、ASICで構成することができる。制御部12の機能は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。制御部12は、記憶部13に格納されたデータやプログラムを読み出して種々の演算処理を行うことで、所定の機能を実現する。
記憶部13は、作業系列識別装置1の機能を実現するために必要なプログラム及びデータを記憶する記憶媒体である。記憶部13は、例えば、ハードディスク(HDD)、SSD、RAM、DRAM、強誘電体メモリ、フラッシュメモリ、磁気ディスク、又はこれらの組み合わせによって実現できる。
通信部11は、カメラ2及び近傍センサ3から映像データ及び周囲環境データをそれぞれ取得する取得部に相当する。通信部11を介して取得された映像データ及び周囲環境データは、記憶部13に格納される。制御部12は、記憶部13に格納されている映像データ及び周囲環境データを読み出す取得部に相当する。
入力部14は、ユーザによる種々の操作を入力するユーザインタフェースである。入力部14は、タッチパネル、キーボード、ボタン、スイッチ、又はこれらの組み合わせによって実現できる。
表示部15は、例えば、液晶ディスプレイ又は有機ELディスプレイである。表示部15は、例えば、制御部12が識別した作業系列を表示する。
バス16は、通信部11、制御部12、記憶部13、入力部14、及び表示部15を電気的に接続する信号線である。
1.2 カメラの構成
図2は、カメラ2が配置される位置の一例を示している。カメラ2は、例えば、店舗内の厨房の天井に設置された全周囲カメラである。カメラ2は、CCDイメージセンサ、CMOSイメージセンサ、又はNMOSイメージセンサなどの画像センサを備える。カメラ2は、厨房内を撮影して映像データを生成する。カメラ2は、作業領域内における移動物体の位置を検出する遠隔センサの一例である。カメラ2が生成する映像データは、作業領域内における移動物体の位置を時系列に示す第1のセンシング情報、換言すると、広域センシング情報の一例である。映像データは、撮影時刻を示す時刻情報を含む。
1.3 近傍センサの構成
図3は、複数の近傍センサ3が配置される位置の一例を示している。複数の近傍センサ3は、厨房内の互いに異なる位置にそれぞれ設置される。制御部12は、厨房内を複数の作業場所、図3の例では作業場所L1〜L10に区分けして管理する。図3の例では、各作業場所の形状は矩形であるが、作業場所の区分けの仕方は任意であり、矩形でなくてもよい。また、区分けする作業場所の数は、作業領域全体の大きさに応じて、適宜、決定されうる。各近傍センサ3は、例えば、複数の作業場所L1〜L10のいずれかに設置される。具体的には、例えば、各近傍センサ3は、冷蔵庫の扉もしくは庫内、食器棚の扉もしくは棚内、電子レンジの近傍、提供カウンタの近傍などに設置される。本明細書において、作業場所L1〜L10を特に区別しないときは、総称して作業場所Lという。複数の近傍センサ3は、それぞれ配置された位置の周囲環境状態を検出して、周囲環境状態を時系列に示す周囲環境データを生成する。周囲環境データは、作業領域内の互いに異なる位置における周囲環境状態を時系列に示す第2のセンシング情報、換言すると、近傍センシング情報の一例である。
図4は、各近傍センサ3に含まれるセンサの種類の一例を示している。本実施形態における近傍センサ3は、複数のセンサが1つの機器にパッケージングされたマルチモーダルセンサである。例えば、各近傍センサ3は、1つの筐体内に、人感センサ31、音センサ32、振動センサ33、電磁波センサ34、加速度センサ35、及び温度センサ36のうちの2つ以上、本実施形態では全てを含む。近傍センサ3は、地磁気センサ、湿度センサ、照度センサ、及び気圧センサのうちのいずれか1つ以上を含んでもよい。また、近傍センサ3は1つのセンサだけがパッケージングされていても良い。
2. 作業系列識別システムにおいて使用されるデータ等
図5は、複数の近傍センサ3のそれぞれの位置と感度を示すセンサ位置情報の一例である。センサ位置情報51は、例えば、記憶部13に予め格納されている。センサ位置情報51は、近傍センサ3の識別情報であるIDと、近傍センサ3の位置を示すx,y座標の値を含む。センサ位置情報51は、さらに、近傍センサ3の感度を示す、近傍センサ3を中心とした半径rの値を含む。
図6は、作業場所Lの位置を示す区分け情報の一例である。区分け情報52は、例えば、記憶部13に予め格納されている。本実施形態では、図3に示すように厨房内の領域が矩形形状の複数の作業場所Lに区分けされるため、区分け情報52は、各作業場所Lの範囲を表す対角位置のx,y座標の値x1,y1,x2,y2を含む。
図7は、作業種別毎の開始位置と終了位置を示す開始終了情報の一例である。開始終了情報53は、例えば、記憶部13に予め格納されている。作業種別A,B,Cは、例えば、開店準備中に行われる仕込み工程、営業中に行われる調理工程、及び閉店準備中に行われる片付け工程である。開始位置と終了位置は、それぞれ、作業場所L1〜L10によって示される。なお、開始位置と終了位置は、作業場所L1〜L10の代わりに、厨房内のx,y座標で示されてもよい。
図8は、動線データの一例である。作業系列識別装置1の制御部12は、画像解析により、カメラ2の映像データから人物などの移動物体を識別して、移動物体の位置を示す動線データ54を生成する。制御部12は、映像データにおいて、同時刻に複数の人物が映っている場合は、例えば、人物毎に、動線データ54を生成する。動線データ54は、例えば、図3に示すような動線M1を表す。具体的には、本実施形態における動線データ54は、各時刻における人物の位置をx,y座標で示している。
図9は、各近傍センサ3が生成する周囲環境データの一例である。周囲環境データ55は、各時刻における検出値d1〜dnを含む。検出値d1〜dnは、人感センサ31、音センサ32、振動センサ33、電磁波センサ34、加速度センサ35、及び温度センサ36によって検出された値である。すなわち、検出値d1〜dnは、赤外線、音、振動、電磁波、加速度、及び温度のいずれかに対応する。周囲環境データ55は、近傍センサ3に含まれるセンサの種類に応じて、地磁気、湿度、照度、及び気圧の検出値を含んでもよい。
図10は、個別作業の作業内容の識別方法の一例を示す図である。制御部12は、個別作業識別器120を使用して、個別作業の作業内容を識別する。個別作業識別器120を構築するプログラム及びパラメータは、例えば記憶部13に格納されている。
個別作業識別器120は、深層学習などの機械学習を使用して、個別作業の作業内容を識別するように学習されたモデルを含む。例えば、個別作業識別器120は、リカレントニューラルネットワークで構成される。リカレントニューラルネットワークは、例えば、入力層N1、中間層N2,N3,N4、及び出力層N5を含む多層構造を持つ。なお、中間層の数は3層に限らない。中間層は、1つ以上の層を含む。また、個別作業識別器120は、他の種類の機械学習のアルゴリズムを採用してもよい。
個別作業識別器120は、例えば、入力層N1から周囲環境データ55の所定時間分の検出値d1〜dnが入力されると、いずれの作業内容を示すかを表す確率P(W1)〜P(Wm)を出力層N5から出力する。所定時間は、例えば10秒である。作業内容W1〜Wmの各々は、例えば、調理工程の場合、注文の受け付け、冷蔵庫の開閉、食器棚の開閉、電子レンジの使用、盛りつけ、及び料理の提供などに対応する。本明細書において、作業内容W1〜Wmを特に区別しないときは、総称して作業内容Wという。
リカレントニューラルネットワークは、予め、学習用の周囲環境データと、学習用の周囲環境データに対応する作業内容を示す正解ラベルとが関連づけられた教師データに基づいて学習される。すなわち、個別作業識別器120を構成するリカレントニューラルネットワークの各層の重み付け係数は、当該教師データを用いた学習により設定される。例えば、10秒間分の検出値d1〜dnを個別作業識別器120に入力して得られる確率P(W1)〜P(Wm)の中で、正解ラベルの作業内容に対応する確率が最大となるように、各層のノード間の重み付け係数が設定される。個別作業識別器120の学習は、作業系列識別装置1が行ってもよいし、別の情報処理装置が行ってもよい。
制御部12は、周囲環境データ55から作業内容を識別するとき、所定時間分の検出値d1〜dnを学習済みの個別作業識別器120に入力することによって、作業内容の確率P(W1)〜P(Wm)を算出する。制御部12は、例えば、入力層N1に入力した所定時間分の検出値d1〜dnが示す作業内容は、出力層N5から得られる確率P(W1)〜P(Wm)の中で最も値が大きい作業内容であると判断する。
図11は、制御部12が生成する作業系列情報の一例を模式的に示す図である。作業系列情報56は、例えば、作業場所、作業内容、及び作業時間を含む情報を時系列に示したグラフを表す。作業系列情報56に記載される作業場所Lは、図3に示す作業場所L1〜L10のいずれかである。作業系列情報56に記載される作業内容Wは、図10に示す個別作業識別器120を使用して識別された結果であって、作業内容W1〜Wmのいずれかである。作業系列情報56に記載される作業時間Tは、作業場所Lにおいて作業内容Wの個別作業を行った時間T1,T2・・・を示す。
図12乃至図14は、作業系列情報56に基づく、表示部15による作業系列の表示例を示している。図12の表示例では、作業系列、すなわち、一連の個別作業の順序、作業場所、及び作業内容と、各個別作業にかかる作業時間の最小値、平均値、最大値、標準偏差、及びランキングを示している。図13の表示例では、カメラ映像が表示されている。例えば、表示部15が図12に示す画面を表示中に、ユーザが、入力部14を介して、表示されている一連の個別作業の中からいずれかの個別作業と、個別作業にかかる作業時間の代表値(最小値、平均値、最大値、標準偏差、及びランキングのうちのいずれか)とを選択したときに、図13に示すような、選択された代表値に対応する個別作業のカメラ映像が表示される。ランキングは、作業時間の平均値、最大値、または、標準偏差を設定することができる。これにより、例えば、ユーザは、時間のかかっている作業、作業時間のばらつきが大きい個別作業を、ランキング順に、対応するカメラ映像で確認することができる。図14の表示例では、作業系列、すなわち、一連の個別作業の順序、作業場所、及び作業内容と、ある人物による各個別作業にかかる作業時間を示している。
3. 作業系列識別装置の動作
3.1 全体動作
上述した構成の作業系列識別装置1の動作について説明する。図15は、作業系列識別装置1の制御部12の動作を示している。
制御部12は、カメラ2の映像データを取得する(S1)。例えば、作業系列識別装置1は、カメラ2が生成した映像データを通信部11を介して取得して記憶部13に格納しておく。制御部12は、ステップS1において、記憶部13に格納されている映像データを読み出す。例えば、制御部12は、1日分の映像データを読み出す。
制御部12は、作業種別に応じた開始位置及び終了位置の情報を取得する(S2)。例えば、ユーザにより入力部14を介して、作業種別が指定されると、制御部12は、ユーザが指定した作業種別に応じた開始位置及び終了位置を、開始終了情報53から読み出す。
制御部12は、開始位置から終了位置までの動線を映像データから検出する(S3)。例えば、制御部12は、映像データの画像解析を行って移動する人物を識別し、開始位置から終了位置までの人物の動線を検出して動線データ54を生成する。
制御部12は、動線データ54に基づいて、動線上における、一連の個別作業を示す作業系列情報56を生成する(S4)。
制御部12は、映像内の動線の検出が終了したか否かを判断する(S5)。例えば、ステップS1で取得した映像データにおいて、ステップS3における人物の識別及び動線の検出を試行していないデータが残っていれば、ステップS3に戻る。これにより、制御部12は、例えば、ステップS3で検出した動線毎に作業系列情報56を生成する。ステップS1で取得した映像データの全体において人物の識別及び動線の検出の試行が終了すると、ステップS6に進む。
制御部12は、ステップS4で生成した作業系列情報56に基づいて、個別作業毎の作業時間の最小値、平均値、最大値、標準偏差、及びランキングを算出する(S6)。本実施形態では、制御部12は、最小値、平均値、及び最大値、標準偏差、及びランキングの全てを算出するが、いずれか一つ以上を算出してもよい。
制御部12は、作業場所、作業内容、及び作業時間を表示部15に表示させる(S7)。例えば、表示部15は、図12に示すように、識別した個別作業の作業内容、各個別作業の順序、及び個別作業毎の作業時間の最小値、平均値、最大値、標準偏差、及びランキングを、特定した作業場所の近傍に表示する。制御部12は、表示部15が図12に示す画面を表示中に、入力部14を介して、ユーザによる、いずれかの個別作業と作業時間の代表値(最小値、平均値、最大値、標準偏差、及びランキングのうちのいずれか)の選択を受け付けてもよい。例えば、ユーザは、タッチパネルにより、個別作業と作業時間の代表値を選択してもよい。この場合、制御部12は、ユーザの選択に応じて個別作業と作業時間の代表値を選択し、図13に示すように、選択した代表値に対応する個別作業のカメラ映像を表示部15に表示させてもよい。なお、ユーザによる選択ではなく、制御部12がいずれかの個別作業と作業時間の代表値を選択してもよい。例えば、制御部12は、各個別作業の最小値、平均値、最大値、標準偏差、もしくはランキングに対応するカメラ映像を順に表示部15に表示させてもよい。表示部15は、図12に示す集計表示に代えて又は加えて、図14に示すように、ある人物における作業時間を表示してもよい。例えば、制御部12は、作業系列全体の作業時間が最大及び最小の人物に関して、各個別作業の作業時間を、作業内容及び順序と共に、特定した作業場所の近傍に表示してもよい。
3.2 作業系列情報の生成動作
図16は、作業系列情報56の生成の動作、すなわち、図15のステップS4の詳細を示している。
制御部12は、動線データ54と区分け情報52とに基づいて作業場所を特定する(S401)。制御部12は、特定した作業場所における周囲環境状態を検出する近傍センサ3を、センサ位置情報51を参照して、選択する(S402)。これにより、記憶部13に格納されている複数の周囲環境データ55の中から、作業内容の識別に使用する周囲環境データ55が選択される。本実施形態では、制御部12は、特定した作業場所から所定範囲内にある全ての近傍センサ3を選択する。別の例では、制御部12は、動線と最も近い近傍センサ3を選択してもよい。
制御部12は、選択した近傍センサ3が生成した周囲環境データ55を記憶部13から取得する(S403)。
制御部12は、ステップS402で選択した近傍センサ3が2つ以上であるか否かを判断する(S404)。
ステップS402で選択した近傍センサ3が2つ以上であれば(S404でYes)、制御部12は、その2つ以上の近傍センサ3の中から1つの近傍センサ3を、ステップS403で取得した周囲環境データ55に基づいて、決定する(S405)。例えば、制御部12は、動線データ54と周囲環境データ55をそれぞれに含まれる時刻情報に基づいて対応づける。制御部12は、ステップS401で特定した作業場所に人物がいるときの、人感センサ31の検出値が、人がより近いことを示している近傍センサ3を選択してもよい。電磁波センサ34の検出値がより大きい近傍センサ3を選択してもよい。音センサ32の検出値がより大きい近傍センサ3を選択してもよい。周囲環境データ55に含まれる検出値d1〜dnの中でいずれの検出値を参照するかを、作業場所に応じて変えてもよい。
ステップS402で選択した近傍センサ3が1つであれば(S404でNo)、ステップS405を省略して、ステップS406に進む。
制御部12は、決定した1つの近傍センサ3によって生成された周囲環境データ55に基づいて、個別作業の作業内容を識別する(S406)。例えば、制御部12は、動線データ54と周囲環境データ55をそれぞれに含まれる時刻情報に基づいて対応づける。制御部12は、ステップS401で特定した作業場所に人物がいる間の検出値d1〜dnを周囲環境データ55から抽出する。制御部12は、抽出した時間帯の検出値d1〜dnの中で、所定時間分の検出値d1〜dnを個別作業識別器120に入力する。例えば、1分間の検出値d1〜dnを抽出した場合、その中の10秒間分の検出値d1〜dnを順に、個別作業識別器120に入力してもよい。制御部12は、動線データ54とセンサ位置情報51とに基づいて、人物が近傍センサ3の感度を示す半径rの範囲内に入った時点から所定時間分の検出値d1〜dnを個別作業識別器120に入力してもよい。
制御部12は、個別作業にかかる作業時間を算出する(S407)。例えば、制御部12は、動線データ54に含まれる時刻情報に基づいて、ステップS401で特定した作業場所における作業時間を算出する。作業時間は、周囲環境データ55が示す時刻情報に基づいて算出されてもよい。例えば、制御部12は、ステップS406における個別作業識別器120の出力結果に基づいて、同一の個別作業を行っていると判断した時間を算出してもよい。
制御部12は、ステップS401で特定した作業場所、ステップS406で識別した作業内容、及びステップS407で算出した作業時間を、作業系列情報56に追加する(S408)。
制御部12は、動線データ54の開始位置から順に、ステップS401〜S408を実行する。制御部12は、ステップS401で特定した作業場所が動線の終了位置を含み、動線が終了か否かを判断する(S409)。ステップS401で特定した作業場所が動線の終了位置を含んでいなければ、ステップS401に戻る。これにより、動線データ54の次の作業場所において、ステップS401〜S408が実行される。ステップS401で特定した作業場所が動線の終了位置を含んで、動線が終了であれば、図16に示す作業系列情報生成処理を終了する。
4. 効果及び補足
本実施形態の作業系列識別システム100は、作業系列識別装置1、カメラ2、及び複数の近傍センサ3を備える。カメラ2は、作業領域を撮影して作業領域内における移動物体の位置を時系列に示す映像データを生成する。複数の近傍センサ3は、作業領域内の互いに異なる位置に配置され、配置された位置の周囲環境状態を時系列に示す周囲環境データ55を生成する。周囲環境状態は、音、振動、赤外線、電磁波、地磁気、加速度、温度、湿度、照度、気圧、及び二酸化炭素濃度のうちの1つ以上を含む。作業系列識別装置1は、映像データと周囲環境データ55とに基づいて、移動物体が行う一連の個別作業を含む作業系列を識別する。
具体的には、作業系列識別装置1は、取得部及び制御部12を備える。取得部は、通信部11又は制御部12である。取得部は、映像データと周囲環境データ55を取得する。制御部12は、映像データに基づいて一連の個別作業の順序を決定し、周囲環境データに基づいて一連の個別作業のそれぞれの作業内容を識別することによって、作業系列を識別する。
天井に設置されたカメラ2が生成した映像データから、人物の動線を検出することができる。しかし、この映像データから作業内容を識別することは難しい。近傍センサ3が生成した周囲環境データ55から、作業内容を識別することができる。しかし、この周囲環境データ55から、人物を識別して動線を検出することは難しい。本実施形態では、映像データ及び周囲環境データ55の両方を使用することによって、人物の動線の検出と作業内容の識別の両方を実現することができる。よって、精度良く作業系列を識別することができる。
取得部は、作業領域内の互いに異なる位置に配置された複数の近傍センサ3から周囲環境データ55をそれぞれ取得する。制御部12は、移動物体の位置と複数の近傍センサ3の位置とに基づいて、複数の周囲環境データ55の中から作業内容の識別に使用する周囲環境データを選択する。制御部12は、移動物体の位置と複数の近傍センサ3の位置とに基づいて、作業内容の識別に使用する周囲環境データを複数選択した場合、選択した複数の周囲環境データに基づいて、実際に使用する周囲環境データをいずれか一つに決定する。これにより、精度良く、作業内容を識別することができる。
制御部12は、作業領域を複数の作業場所に区分けして管理し、映像データに基づいて、複数の作業場所の中から移動物体がいる作業場所を特定し、作業場所と作業内容とを対応づけて作業系列情報56を生成する。作業系列情報56の生成を自動化できるため、手作業で作業系列情報56を生成する必要がなくなる。よって、効率的に作業系列情報56を生成することができる。このようにして生成された作業系列情報56は、作業を分析して、機器の配置又は作業の流れなどの改善の立案を行うのに有用である。
制御部12は、作業領域内における作業種別に応じた開始位置から終了位置までの移動物体の動線を映像データに基づいて検出し、検出した動線に沿って作業場所の特定と作業内容の識別を繰り返して、作業系列情報56を生成する。これにより、作業種別に応じた動線上の作業系列情報56を生成することができる。
映像データは撮影した時刻を示す時刻情報を含み、周囲環境データ55はセンシングした時刻を示す時刻情報を含む。周囲環境データ55と、映像データから生成される動線データ54とは時刻情報に基づいて同期される。制御部12は、時刻情報に基づいて、作業時間を算出する。これにより、作業系列に含まれる各個別作業にかかる作業時間を自動で計測することが可能になる。
制御部12は、同一の個別作業にかかる作業時間の最小値、平均値、最大値、標準偏差、及びランキングの少なくともいずれか一つを算出する。算出された値は、作業を分析して、機器の配置又は作業の流れなどの改善の立案を行うのに有用である。
作業系列識別装置1は、一連の個別作業の順序、作業場所、及び作業内容と、各個別作業にかかる時間の最小値、平均値、最大値、標準偏差、及びランキングの少なくともいずれか一つを表示する表示部15をさらに備える。これにより、ユーザは作業系列、および、作業時間を視認することができる。
本実施形態における作業領域は、厨房内の領域であり、一連の個別作業は、調理に関連する作業を含む。厨房内の作業に関連する作業系列情報56は、厨房内の作業を分析して、機器の配置又は作業の流れなどの改善の立案を行うのに有用である。
(第2実施形態)
上記第1実施形態では、ステップS406において、制御部12は、周囲環境データ55に基づいて個別作業の作業内容を識別した。本実施形態では、制御部12は、周囲環境データ55に加えて、購入された商品を示すPOS(Point Of Sales)情報を使用して、個別作業の作業内容を識別する。
図17は、本実施形態の作業系列識別システム100の電気的構成を示している。本実施形態の作業系列識別システム100は、作業系列識別装置1、カメラ2、及び複数の近傍センサ3に加え、POS端末4をさらに含む。POS端末4は、POS情報を生成する。POS情報は、販売時点における時刻、商品名、数量、及び金額などを含む。作業系列識別装置1は、POS端末4が生成したPOS情報を、通信部11を介して取得する。通信部11は、POS端末4からPOS情報を取得する取得部に相当する。取得したPOS情報は、記憶部13に格納される。制御部12は、記憶部13からPOS情報を読み出す取得部に相当する。
図18は、本実施形態における、POS情報を利用した個別作業の作業内容の識別例を示している。制御部12は、ステップS406において、作業内容の識別に使用する係数q1〜qmを、POS情報が示す購入された商品に基づいて設定する。例えば、作業内容W1〜Wmのそれぞれに対する係数q1〜qmが、商品毎に予め決められていて、商品毎の係数q1〜qmを示す情報が記憶部13に格納されている。制御部12は、ステップS406の前にPOS情報を記憶部13から読み出し、ステップS406において、POS情報が示す購入された商品に対応する係数q1〜qmを記憶部13から読み出す。制御部12は、個別作業識別器120により算出した各作業内容の確率P(W1)〜P(Wm)に対し、購入された商品に対応する係数q1〜qmをそれぞれ乗算する。すなわち、制御部12は、個別作業識別器120から出力されるm個の個別作業のそれぞれの確率P(W)に対して、「P(W)×q」を算出する。制御部12は、「P(W)×q」の算出値が最大となる作業内容Wが、個別作業識別器120に入力した検出値d1〜dnに対応する個別作業の作業内容であると判断する。制御部12は、このようにして識別した結果の作業内容Wを、作業系列情報56に書き込む。
以上のように、本実施形態の取得部は、周囲環境データ55に加え、購入された商品を示すPOS情報を取得する。制御部12は、POS情報と周囲環境データ55とに基づいて、作業内容を識別する。これにより、精度良く作業内容を識別することができる。
なお、本実施形態では、個別作業識別器120から出力されるm個の個別作業のそれぞれの確率P(W)と係数qの積を算出することにより作業内容を判断したが、係数qを個別作業識別器120の教師データとして予め学習させておいてもよい。この場合、個別作業識別器120には検出値dと係数qを入力し、出力から得られる確率P(W1)〜P(Wm)の中で最も値が大きい作業内容が、入力した検出値dに対応する作業内容であると判断する。
(第3実施形態)
第1及び第2実施形態では、作業系列識別システム100が、一連の個別作業を含む作業系列を識別して、作業系列を示す作業系列情報56を生成する例について説明した。本実施形態では、作業系列識別システム100は、一連の個別作業を行う移動物体の稼働率を算出する。具体的には、作業系列識別装置1の制御部12は、動線上において移動物体が稼働していない時間を算出することによって、稼働率を算出する。
図19は、第3実施形態における作業系列識別装置1の制御部12による稼働率の算出の動作を示すフローチャートである。制御部12は、例えば、図15及び図16に示される作業系列情報56の生成後に、図19に示す稼働率の算出を行う。図15及び図16に示される作業系列情報56の生成と並行して、図19に示す稼働率の算出が行われてもよい。図19のステップS11〜S13は、第1実施形態の図15のステップS1〜S3と同一である。図19のステップS16〜S18は、第1実施形態の図16のステップS401〜S405に相当する。
制御部12は、カメラ2の映像データを取得する(S11)。制御部12は、作業種別に応じた開始位置及び終了位置の情報を取得する(S12)。制御部12は、開始位置から終了位置までの動線を映像データから検出する(S13)。
制御部12は、動線の開始から終了までの時間を第1の期間の長さとして算出する(S14)。例えば、制御部12は、動線データ54に含まれる時刻情報に基づいて、第1の期間の長さを算出する。
制御部12は、ステップS13で検出した動線の開始位置から終了位置までの中で、動線の移動量が第1の閾値以下となる時間を、第2の期間の長さとして算出する(S15)。例えば、制御部12は、動線データ54に基づいて、x座標及びy座標の変化量の合計値が第1の閾値以下である時間を、動線データ54に含まれる時刻情報に基づいて算出する。
制御部12は、第2の期間内における作業場所を動線データ54と区分け情報52とに基づいて特定する(S16)。制御部12は、センサ位置情報51を参照して、特定した作業場所における周囲環境状態を検出する近傍センサ3を選択する(S17)。制御部12は、近傍センサ3が生成した第2の期間内における周囲環境データ55を記憶部13から取得する(S18)。ステップS17において選択した近傍センサ3が複数個あれば、制御部12は、選択した近傍センサ3が生成した周囲環境データ55に基づいて、作業内容の識別に使用する近傍センサ3を1つ決定する。
制御部12は、第2の期間内の周囲環境データ55において検出値の変化量が第2の閾値以下となる時間を、第3の期間の長さとして算出する(S19)。例えば、制御部12は、第2の期間内の周囲環境データ55に含まれる電磁波の検出値が第2の閾値以下である時間を、周囲環境データ55に含まれる時刻情報に基づいて算出する。周囲環境データ55に含まれる検出値d1〜dnの中でいずれの検出値を使用するかを、ステップS16で特定した作業場所に応じて変えてもよい。制御部12は、周囲環境データ55に含まれる検出値d1〜dnの全てを、それぞれ対応する第2の閾値と比較してもよい。ステップS15において、動線の開始位置から終了位置までの中で複数の第2の期間が算出されている場合、制御部12は、それぞれの第2の期間について、ステップS16〜S19に示す処理を行い、第3の期間の長さをそれぞれ算出する。
第3の期間は、動線の移動量が第1の閾値以下で且つ周囲環境データ55において検出値の変化量が第2の閾値以下となる時間である。すなわち、第3の期間は、移動物体の非稼働時間を表す。
制御部12は、稼働率を算出する(S20)。具体的には、制御部12は、「稼働率=(第1の期間−第3の期間の合計)/第1の期間」によって、稼働率を算出する。なお、制御部12は、「非稼働率=第3の期間の合計/第1の期間」によって、非稼働率を算出してもよい。
制御部12は、算出した稼働率を作業系列情報56に追加してもよいし、表示部15に表示してもよい。制御部12は、第3の期間の長さである非稼働時間を作業系列情報56に追加してもよいし、表示部15に表示してもよい。例えば、制御部12は、ステップS16で特定した作業場所と非稼働時間を対応づけて作業系列情報56に追加してもよい。
表示部15は、非稼働時間を作業場所の近傍に表示してもよい。
このように、制御部12は、検出した動線上において、移動物体の位置の変化量が第1の閾値以下であり、且つ、周囲環境状態の変化量が第2の閾値以下である時間の、動線の全時間内における割合に基づいて、移動物体の稼働率を算出する。稼働率を示すデータは、作業を分析して、機器の配置又は作業の流れなどの改善の立案を行うのに有用である。
(他の実施形態)
以上のように、本出願において開示する技術の例示として、上記第1実施形態〜第3実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施形態にも適用可能である。そこで、以下、他の実施形態を例示する。
上記第1実施形態〜第3実施形態では、厨房にいる人物が行う一連の個別作業を含む作業系列を識別する例について説明したが、作業系列の識別の対象は厨房内の人物が行う作業に限定しない。例えば、作業系列の識別の対象は、厨房内における作業に限らず、工場内における作業であってもよい。作業系列の識別の対象は、人物が行う作業に限らず、フォークリフトやロボットなどの機械が行う作業であってもよい。作業系列識別装置1、カメラ2、及び複数の近傍センサ3は、工場内に設置されてもよい。カメラ2は、工場内においてフォークリフトが移動する範囲を撮影してもよい。作業系列識別装置1は、近傍センサ3を使用して、フォークリフトの動作を検出してもよい。近傍センサ3は、人間の動作、機械の動作、及び現場環境を検出するのに使用することができる。人間の動作は、例えば、製品の組み立て、ピッキング、弁当の調理を含む。機械の動作は、ライン動作、フォークリフト動作、及び調理器具の状況を含む。現場環境は、騒音、温度、湿度、二酸化炭素濃度、及び照度などを含む。
また、上記第1実施形態〜第3実施形態では、店舗における厨房内の一連の個別作業を含む作業系列を識別する例について説明した。しかしながら、その適用対象は店舗などの商用用途のみならず、家庭内のキッチン、あるいは、部屋における作業であってもよい。例えば、家庭内のキッチンの場合、作業系列識別装置1、カメラ2、及び複数の近傍センサ3は、キッチンに配置されてもよい。近傍センサ3は、調理者の動作、調理器具の動作、及びキッチン環境を検出するのに使用することができる。調理者の動作は、食品の取り出し・収納、食品の調理、食器の取り出し・収納を含む。調理器具の動作は、食品棚の開閉、調理器具の状況、収納棚の開閉を含む。キッチン環境は、騒音、温度、湿度、二酸化炭素濃度、及び照度などを含む。これにより、キッチンでの調理作業の作業系列を識別する。
上記実施形態では、遠隔センサの一例としてカメラ2を使用したが、遠隔センサはカメラ2に限らない。遠隔センサは、移動物体の位置を検出できるセンサであればよい。上記実施形態では、作業系列識別装置1が、映像データを画像解析することによって、動線データ54を生成したが、作業系列識別装置1は、カメラ2を備えた別の機器又は移動物体の位置を検出する別の遠隔センサから動線データ54を取得してもよい。
また、上記実施形態では、作業種別に応じた開始位置及び終了位置を開始終了情報53から検出したが、カメラ2の映像データから開始位置及び終了位置を検出してもよい。具体的には、カメラ2から得られる動線位置と動き差分情報を利用し、動線が特定範囲に含まれ、かつ、動き差分情報が予め決められた閾値以上となった場合に、その位置を作業の開始位置、あるいは、終了位置として検出する。これは、通常想定される位置以外において作業の開始及び/又は終了が行われた場合に有用である。例えば、料理の提供の際は、従業員が手を伸ばすため、そのときの動き差分値が大きな値を示す。よって、カウンタ付近において、通常の料理提供位置以外の場所であったとしても、動き差分値が閾値以上であれば、作業終了位置として検出することができる。
(実施形態の概要)
(1)本開示の作業系列識別装置は、一連の個別作業を含む作業系列を識別する作業系列識別装置であって、作業領域内における移動物体の位置を時系列に示す第1のセンシング情報と、作業領域内の異なる位置における周囲環境状態を時系列に示す複数の第2のセンシング情報と、を取得する取得部と、第1のセンシング情報に基づいて一連の個別作業の順序を特定し、第2のセンシング情報に基づいて一連の個別作業のそれぞれの作業内容を識別する制御部と、を備える。
これにより、精度良く作業系列を識別することができる。
(2)(1)の作業系列識別装置において、取得部は、作業領域内の異なる位置に配置された複数の近傍センサから第2のセンシング情報をそれぞれ取得し、制御部は、第1のセンシング情報が示す移動物体の位置と複数の近傍センサの位置とに基づいて、複数の第2のセンシング情報の中から作業内容の識別に使用する第2のセンシング情報を選択してもよい。
これにより、精度良く、個別作業の作業内容を識別することができる。
(3)(2)の作業系列識別装置において、制御部は、移動物体の位置と複数の近傍センサの位置とに基づいて、作業内容の識別に使用する第2のセンシング情報を複数選択した場合、選択した複数の第2のセンシング情報に基づいて、実際に使用する第2のセンシング情報をいずれか一つに決定してもよい。
これにより、精度良く、個別作業の作業内容を識別することができる。
(4)(1)の作業系列識別装置において、制御部は、作業領域を複数の作業場所に区分けして管理し、第1のセンシング情報に基づいて、複数の作業場所の中から移動物体がいる作業場所を特定し、作業場所と作業内容とを対応づけて、作業系列を示す作業系列情報を生成してもよい。
この作業系列情報は、作業を分析して、機器の配置又は作業の流れなどの改善の立案を行うのに有用である。
(5)(4)の作業系列識別装置において、制御部は、作業領域内における第1の所定位置から第2の所定位置までの移動物体の動線を第1のセンシング情報に基づいて検出し、検出した動線に沿って作業場所の特定と作業内容の識別を繰り返して、作業系列情報を生成してもよい。
第1の所定位置と第2の所定位置を作業種別に応じて設定することで、作業種別に応じた動線上の作業系列情報を生成することができる。
(6)(5)の作業系列識別装置において、第1のセンシング情報と第2のセンシング情報はそれぞれセンシングした時刻を示す時刻情報を含み、制御部は、時刻情報に基づいて、第1のセンシング情報と第2のセンシング情報とを対応付けてもよい。
これにより、個別作業の順序と作業内容とを精度良く識別することができる。
(7)(6)の作業系列識別装置において、制御部は、時刻情報に基づいて、各個別作業にかかる時間を計測してもよい。
計測された時間は、作業を分析して、機器の配置又は作業の流れなどの改善の立案を行うのに有用である。
(8)(7)の作業系列識別装置において、制御部は、同一の個別作業にかかる時間の最小値、平均値、最大値、標準偏差、及びランキングの少なくともいずれか一つを算出してもよい。
算出された最小値、平均値、最大値、標準偏差、及びランキングは、作業を分析して、機器の配置又は作業の流れなどの改善の立案を行うのに有用である。
(9)(6)の作業系列識別装置において、制御部は、検出した動線上において、移動物体の位置の変化量が第1の閾値以下であり、且つ、周囲環境状態の変化量が第2の閾値以下である時間の、動線の全時間内における割合に基づいて、移動物体の稼働率を算出してもよい。
稼働率は、作業を分析して、機器の配置又は作業の流れなどの改善の立案を行うのに有用である。
(10)(1)の作業系列識別装置は、一連の個別作業の順序、作業場所、及び作業内容と、各個別作業にかかる時間の最小値、平均値、最大値、標準偏差、及びランキングの少なくともいずれか一つを表示する表示部をさらに備えてもよい。
これにより、ユーザは作業系列を視認することができる。
(11)(1)の作業系列識別装置において、取得部は、購入された商品を示すPOS情報を取得し、制御部は、POS情報と第2のセンシング情報とに基づいて、作業内容を識別してもよい。
これにより、精度良く、個別作業の作業内容を識別することができる。
(12)(1)の作業系列識別装置において、取得部は、第1のセンシング情報として、作業領域を撮影するカメラが生成した映像データを取得してもよい。
(13)(1)の作業系列識別装置において、第2のセンシング情報が示す周囲環境状態は、音、振動、赤外線、電磁波、地磁気、加速度、温度、湿度、照度、気圧、及び二酸化炭素濃度のうちの1つ以上を含んでもよい。
(14)(1)の作業系列識別装置において、作業領域は厨房内の領域であり、一連の個別作業は調理に関連する作業を含んでもよい。
(15)本開示の作業系列識別システムは、作業領域を撮影して作業領域内における移動物体の位置を時系列に示す第1のセンシング情報を生成するカメラと、作業領域内の異なる位置に配置され、配置された位置の周囲環境状態を時系列に示す第2のセンシング情報を生成する複数の近傍センサと、第1のセンシング情報と複数の第2のセンシング情報とに基づいて、移動物体が行う一連の個別作業を含む作業系列を識別する、請求項1から請求項14のいずれか1つに記載の作業系列識別装置と、を含む。
(16)本開示の作業系列識別方法は、演算部により、一連の個別作業を含む作業系列を識別する作業系列識別方法であって、作業領域内における移動物体の位置を時系列に示す第1のセンシング情報と、作業領域内の異なる位置における周囲環境状態を時系列に示す複数の第2のセンシング情報と、を取得するステップと、第1のセンシング情報に基づいて一連の個別作業の順序を特定し、第2のセンシング情報に基づいて一連の個別作業のそれぞれの作業内容を識別するステップと、を含む。
(17)(16)の作業系列識別方法は、一連の個別作業の順序、作業場所、及び作業内容と、各個別作業にかかる時間の最小値、平均値、最大値、標準偏差、及びランキングの少なくともいずれか一つを表示する表示ステップをさらに含んでもよい。
(18)(17)の作業系列識別方法は、表示ステップが、一連の個別作業の中から、いずれかの個別作業を選択するステップと、選択した個別作業にかかる時間の最小値、平均値、最大値、標準偏差、及びランキングのうちのいずれかを代表値として選択するステップと、選択した代表値に対応する個別作業の映像を表示するステップとを有してもよい。
(19)本開示のプログラムは、(16)の作業系列識別方法をコンピュータに実行させる。
本開示の全請求項に記載の作業系列識別装置、作業系列識別システム、及び作業系列識別装置方法は、ハードウェア資源、例えば、プロセッサ、メモリ、及びプログラムとの協働などによって、実現される。
本開示の作業系列識別装置及び作業系列識別システムは、一連の個別作業を含む作業系列を自動で識別する装置として有用である。
1 作業系列識別装置
2 カメラ
3 近傍センサ
4 POS端末
11 通信部
12 制御部
13 記憶部
14 入力部
15 表示部
16 バス
100 作業系列識別システム
120 個別作業識別器

Claims (19)

  1. 一連の個別作業を含む作業系列を識別する作業系列識別装置であって、
    作業領域内における移動物体の位置を時系列に示す第1のセンシング情報と、前記作業領域内の異なる位置における周囲環境状態を時系列に示す複数の第2のセンシング情報と、を取得する取得部と、
    前記第1のセンシング情報に基づいて前記一連の個別作業の順序を特定し、前記第2のセンシング情報に基づいて前記一連の個別作業のそれぞれの作業内容を識別する制御部と、
    を備える、作業系列識別装置。
  2. 前記取得部は、前記作業領域内の異なる位置に配置された複数の近傍センサから前記第2のセンシング情報をそれぞれ取得し、
    前記制御部は、前記第1のセンシング情報が示す前記移動物体の位置と前記複数の近傍センサの位置とに基づいて、前記複数の第2のセンシング情報の中から前記作業内容の識別に使用する第2のセンシング情報を選択する、
    請求項1に記載の作業系列識別装置。
  3. 前記制御部は、前記移動物体の位置と前記複数の近傍センサの位置とに基づいて、前記作業内容の識別に使用する第2のセンシング情報を複数選択した場合、前記選択した複数の第2のセンシング情報に基づいて、実際に使用する第2のセンシング情報をいずれか一つに決定する、
    請求項2に記載の作業系列識別装置。
  4. 前記制御部は、前記作業領域を複数の作業場所に区分けして管理し、前記第1のセンシング情報に基づいて、前記複数の作業場所の中から前記移動物体がいる作業場所を特定し、
    前記作業場所と前記作業内容とを対応づけて、前記作業系列を示す作業系列情報を生成する、
    請求項1に記載の作業系列識別装置。
  5. 前記制御部は、
    前記作業領域内における第1の所定位置から第2の所定位置までの前記移動物体の動線を前記第1のセンシング情報に基づいて検出し、
    前記検出した動線に沿って前記作業場所の特定と前記作業内容の識別を繰り返して、前記作業系列情報を生成する、
    請求項4に記載の作業系列識別装置。
  6. 前記第1のセンシング情報と前記第2のセンシング情報はそれぞれセンシングした時刻を示す時刻情報を含み、
    前記制御部は、前記時刻情報に基づいて、前記第1のセンシング情報と前記第2のセンシング情報とを対応付ける、
    請求項5に記載の作業系列識別装置。
  7. 前記制御部は、前記時刻情報に基づいて、各個別作業にかかる時間を計測する、
    請求項6に記載の作業系列識別装置。
  8. 前記制御部は、同一の個別作業にかかる時間の最小値、平均値、最大値、標準偏差、及びランキングの少なくともいずれか一つを算出する、
    請求項7に記載の作業系列識別装置。
  9. 前記制御部は、検出した前記動線上において、前記移動物体の位置の変化量が第1の閾値以下であり、且つ、前記周囲環境状態の変化量が第2の閾値以下である時間の、前記動線の全時間内における割合に基づいて前記移動物体の稼働率を算出する、
    請求項6に記載の作業系列識別装置。
  10. 前記一連の個別作業の順序、作業場所、及び作業内容と、各個別作業にかかる時間の最小値、平均値、及び最大値の少なくともいずれか一つを表示する表示部をさらに備える、
    請求項1に記載の作業系列識別装置。
  11. 前記取得部は、購入された商品を示すPOS情報を取得し、
    前記制御部は、前記POS情報と前記第2のセンシング情報とに基づいて、前記作業内容を識別する、
    請求項1に記載の作業系列識別装置。
  12. 前記取得部は、前記第1のセンシング情報として、前記作業領域を撮影するカメラが生成した映像データを取得する、
    請求項1に記載の作業系列識別装置。
  13. 前記第2のセンシング情報が示す周囲環境状態は、音、振動、赤外線、電磁波、地磁気、加速度、温度、湿度、照度、気圧、及び二酸化炭素濃度のうちの1つ以上を含む、
    請求項1に記載の作業系列識別装置。
  14. 前記作業領域は、厨房内の領域であり、
    前記一連の個別作業は、調理に関連する作業を含む、
    請求項1に記載の作業系列識別装置。
  15. 作業領域を撮影して前記作業領域内における移動物体の位置を時系列に示す第1のセンシング情報を生成するカメラと、
    前記作業領域内の異なる位置に配置され、配置された位置の周囲環境状態を時系列に示す第2のセンシング情報を生成する複数の近傍センサと、
    前記第1のセンシング情報と前記複数の第2のセンシング情報とに基づいて、前記移動物体が行う一連の個別作業を含む作業系列を識別する、請求項1から請求項14のいずれか1つに記載の作業系列識別装置と、
    を含む、作業系列識別システム。
  16. 一連の個別作業を含む作業系列を識別する作業系列識別方法であって、
    作業領域内における移動物体の位置を時系列に示す第1のセンシング情報と、前記作業領域内の異なる位置における周囲環境状態を時系列に示す複数の第2のセンシング情報と、を取得するステップと、
    前記第1のセンシング情報に基づいて一連の個別作業の順序を特定し、前記第2のセンシング情報に基づいて前記一連の個別作業のそれぞれの作業内容を識別するステップと、 を含む、作業系列識別方法。
  17. 前記一連の個別作業の順序、作業場所、及び作業内容と、各個別作業にかかる時間の最小値、平均値、及び最大値の少なくともいずれか一つを表示する表示ステップをさらに含む、
    請求項16に記載の作業系列識別方法。
  18. 前記表示ステップは、
    前記一連の個別作業の中から、いずれかの個別作業を選択するステップと、
    前記選択した個別作業にかかる時間の最小値、平均値、最大値、標準偏差、及びランキングのうちのいずれかを代表値として選択するステップと、
    前記選択した代表値に対応する個別作業の映像を表示するステップと、
    を有する、
    請求項17に記載の作業系列識別方法。
  19. 請求項16に記載の作業系列識別方法をコンピュータに実行させるプログラム。
JP2020530917A 2018-07-18 2019-05-27 作業系列識別装置、作業系列識別システム、作業系列識別方法、及びプログラム Active JP7493155B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018135355 2018-07-18
JP2018135355 2018-07-18
PCT/JP2019/020958 WO2020017160A1 (ja) 2018-07-18 2019-05-27 作業系列識別装置、作業系列識別システム、作業系列識別方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020017160A1 true JPWO2020017160A1 (ja) 2021-08-02
JP7493155B2 JP7493155B2 (ja) 2024-05-31

Family

ID=

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0446749A (ja) * 1990-06-13 1992-02-17 Joho Syst Kenkyusho:Kk 作業実績管理方法
JP2001282349A (ja) * 2000-04-03 2001-10-12 Mitsubishi Electric Corp 作業情報提供装置
JP2008201569A (ja) * 2007-02-22 2008-09-04 Hitachi Ltd 作業管理システム、作業管理方法、及び管理計算機
JP2012150613A (ja) * 2011-01-18 2012-08-09 Ricoh Co Ltd 作業内容測定装置及び作業管理装置
WO2017191743A1 (ja) * 2016-05-02 2017-11-09 旭硝子株式会社 作業時間分析システム、作業時間分析プログラム、及び作業時間分析方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0446749A (ja) * 1990-06-13 1992-02-17 Joho Syst Kenkyusho:Kk 作業実績管理方法
JP2001282349A (ja) * 2000-04-03 2001-10-12 Mitsubishi Electric Corp 作業情報提供装置
JP2008201569A (ja) * 2007-02-22 2008-09-04 Hitachi Ltd 作業管理システム、作業管理方法、及び管理計算機
JP2012150613A (ja) * 2011-01-18 2012-08-09 Ricoh Co Ltd 作業内容測定装置及び作業管理装置
WO2017191743A1 (ja) * 2016-05-02 2017-11-09 旭硝子株式会社 作業時間分析システム、作業時間分析プログラム、及び作業時間分析方法

Also Published As

Publication number Publication date
WO2020017160A1 (ja) 2020-01-23
EP3825931A1 (en) 2021-05-26
EP3825931A4 (en) 2021-09-08
CN112368725A (zh) 2021-02-12
US20210110162A1 (en) 2021-04-15

Similar Documents

Publication Publication Date Title
US11393213B2 (en) Tracking persons in an automated-checkout store
JP6421184B2 (ja) 情報生成方法、情報生成装置、コンピュータプログラム及びコンピュータ読み取り可能な記憶媒体
JP6240203B2 (ja) 情報端末にマーチャンダイジング情報を表示させる制御方法
JP5985716B2 (ja) 電気機器制御装置、電気機器制御システム、及び、プログラム
CN108353089A (zh) 用于用户可配置的交互区域监视的装置和方法
US20180107879A1 (en) System and Method for Adaptive, Rapidly Deployable, Human-Intelligent Sensor Feeds
CN110178101A (zh) 虚拟传感器配置
US11421929B2 (en) Food management system
JP2011197904A (ja) 省エネアドバイス生成装置
JP2018514931A (ja) 空間構成を管理する方法及びシステム
JP6817974B2 (ja) 計算機システム
CN107436196B (zh) 监视装置、监视方法及存储有程序的信息处理装置
JP2018128859A (ja) 座席表示装置、座席表示プログラム及び座席表示システム
CN112784664A (zh) 语义地图构建与作业方法、自主移动设备及存储介质
JP5930916B2 (ja) サーバー装置、及び、情報処理システム
TWI662427B (zh) Behavior visualization device and behavior visualization method
JP2019219766A (ja) 分析装置、分析システム、及び分析プログラム
JP7493155B2 (ja) 作業系列識別装置、作業系列識別システム、作業系列識別方法、及びプログラム
CN108141382B (zh) 电子装置及其控制物联网设备的方法
JPWO2020017160A1 (ja) 作業系列識別装置、作業系列識別システム、作業系列識別方法、及びプログラム
WO2015104804A1 (ja) 信号処理システム、信号処理方法、及び信号処理プログラム
GB2578610A (en) Sensor methods and apparatus
JP6646557B2 (ja) 管理装置、管理システム、および管理方法
CN113239780A (zh) 食材的确定方法、装置、电子设备、冰箱及存储介质
WO2020071225A1 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231213

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20231213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240508