JP7324618B2 - Work monitoring device and work monitoring method - Google Patents
Work monitoring device and work monitoring method Download PDFInfo
- Publication number
- JP7324618B2 JP7324618B2 JP2019103551A JP2019103551A JP7324618B2 JP 7324618 B2 JP7324618 B2 JP 7324618B2 JP 2019103551 A JP2019103551 A JP 2019103551A JP 2019103551 A JP2019103551 A JP 2019103551A JP 7324618 B2 JP7324618 B2 JP 7324618B2
- Authority
- JP
- Japan
- Prior art keywords
- work
- determination result
- image data
- worker
- result table
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Description
本発明は、作業監視装置、及び作業監視方法に関する。 The present invention relates to a work monitoring device and a work monitoring method.
特許文献1には、ロボットが人の姿勢、動作、又は挙動を認識するための動体の動作認識方法について記載されている。上記動作認識方法では、予め動体Aの基本動作ごとのフレーム画像データAが点で表示される固有空間データAを作成してデータベース化し、対象となる動体Bのフレーム画像データBが点で表示された固有空間データBと基本動作ごとの固有空間データAを比較し、固有空間データBからの距離が最も近い固有空間データAを選び、動体Bの動作を認識する。基本動作ごとの各フレーム画像データAは、動体Aに基本動作を行わせ、基本動作を行う動体Aを複数の画像入力手段を用いて多方向から撮影し、画像入力手段ごとに取得した連続する複数のフレーム画像にそれぞれ重みをつけた後、重ね合わせることで作成される圧縮画像から得る。
特許文献2には、人の身振りや手振りを利用したユーザインタフェースにおいて手の形状および動作を認識する動作認識システムに関して記載されている。動作認識システムは、特定の対象の画像が含まれている時系列画像データを処理することにより対象の形状および動作を認識し、時系列画像データから動きのある領域を抽出し、時系列画像データから対象を特徴づける色を含む領域を抽出し、動きのある領域で、かつ対象を特徴づける色を含む領域となる領域を対象領域として抽出する。
非特許文献1には、センサやカメラを活用した様々な行動認識技術について記載されている。非特許文献2には、学習データに出現していないデータのラベルを予測する「Zero
Shot Learning」を用いて動作認識を行うことが記載されている。
Non-Patent
It describes that motion recognition is performed using "Shot Learning".
製品の製造現場においては、品質管理や作業者の安全確保等を目的として作業者の動作を認識することにより作業者が正しい作業手順に従って作業しているか否かを監視する仕組みの導入が進められている。昨今では機械学習を利用した技術が注目されており、例えば一般公開されているデータベース(「UCF101- Action Recognition Data Set」
等)を用いた動作認識技術について研究開発が活発に行われている。
At product manufacturing sites, a mechanism has been introduced to monitor whether workers are following correct work procedures by recognizing the actions of workers for the purpose of quality control and ensuring the safety of workers. ing. Recently, technology using machine learning is attracting attention. For example, a publicly available database ("UCF101-Action Recognition Data Set
etc.) are being actively researched and developed.
ところで、作業者が行う作業は現場毎に異なるため、動作認識技術を利用した作業監視
の仕組みを現場に導入する際は、現場毎に作業者が行う様々な作業についてデータを収集する必要がある。また上記のようなデータベースを用いる場合でも、登録されていない作業については現場毎にデータを収集する必要がある。
By the way, since the work performed by workers differs from site to site, it is necessary to collect data on the various tasks performed by workers at each site when introducing a work monitoring system that uses motion recognition technology. . Moreover, even when using a database such as the one described above, it is necessary to collect data for each work site for unregistered work.
例えば、特許文献1に記載の技術は、予め基本動作ごとのフレーム画像で固有空間データを生成し、固有空間が持つ動作の特徴から距離を比較して動作認識を行うものであり、認識対象となる基本動作について事前に大量のデータを用意しておく必要があり、導入時に現場の作業者に与える負荷が大きい。
For example, the technique described in
一方、特許文献2に記載の技術は、時系列画像データを用いて動き領域と動作認識対象を特徴づける色を含む領域とに基づき対象領域を抽出し、形状を解析することにより動作認識を行うものであり、事前にデータを必要としない方式である。しかし同技術では形状に基づき動作を認識するため、作業している手の位置や周辺の情報については正確に認識することができない。
On the other hand, the technique described in
また非特許文献2に記載の技術では、学習データに出現していないデータのラベルを予測するが、認識対象を予測するのに必要なデータは現場で用意する必要がある。
In the technique described in Non-Patent
本発明はこうした背景に基づきなされたものであり、事前に大量のデータを準備することなく、作業者が行う作業を精度よく監視することが可能な、作業監視装置、及び作業監視方法を提供することを目的とする。 The present invention has been made based on such a background, and provides a work monitoring device and a work monitoring method capable of accurately monitoring work performed by a worker without preparing a large amount of data in advance. for the purpose.
上記目的を達成するための本発明の一つは、作業監視装置であって、プロセッサ及びメモリを有する情報処理装置を用いて構成され、作業者が作業を行っている様子を映した画像データを取得する画像データ取得部と、前記画像データに映っている複数の物体について前記画像データにおける夫々の位置を示す情報を取得する物体位置検出部と、前記画像データに設定された領域である一つ以上の判定対象領域の夫々に前記複数の物体の夫々の前記位置が含まれているか否かを判定した結果を示す情報を含んだ判定結果表を生成する判定結果表生成部と、前記画像データに基づき生成される前記判定結果表と当該画像データにおける作業を示す情報である作業内容情報とを対応づけた情報である判定結果パターン/作業内容対応情報を記憶する記憶部と、新たに取得された前記画像データについて前記判定結果表を生成し、生成した前記判定結果表と前記判定結果パターン/作業内容対応情報とを対照することにより前記作業者が行っている作業を特定する監視処理部と、を備え、前記判定結果表は、前記物体の前記位置が前記画像データに含まれているか否かを示す情報を更に含む。
One of the present inventions for achieving the above object is a work monitoring device, which is constructed using an information processing device having a processor and a memory, and which displays image data showing a worker performing work. an image data acquisition unit for acquiring; an object position detection unit for acquiring information indicating respective positions in the image data of a plurality of objects appearing in the image data; and one area set in the image data. a determination result table generating unit for generating a determination result table containing information indicating a result of determining whether or not the position of each of the plurality of objects is included in each of the determination target regions; and the image data. a storage unit that stores determination result pattern/work content correspondence information that is information in which the determination result table generated based on the above is associated with work content information that is information indicating work in the image data; a monitoring processing unit that generates the determination result table for the image data obtained and identifies the work performed by the worker by comparing the generated determination result table with the determination result pattern/work content correspondence information; , wherein the determination result table further includes information indicating whether or not the position of the object is included in the image data.
その他、本願が開示する課題、及びその解決方法は、発明を実施するための形態の欄、及び図面により明らかにされる。 In addition, the problems disclosed by the present application and their solutions will be clarified by the description of the mode for carrying out the invention and the drawings.
本発明によれば、事前に大量のデータを準備することなく、作業者が行う作業を精度よく監視することができる。 ADVANTAGE OF THE INVENTION According to this invention, the work which a worker performs can be monitored accurately, without preparing a large amount of data in advance.
以下、実施形態につき図面を参照しつつ説明する。以下の説明において、同一のまたは類似する構成に同一の符号を付して重複した説明を省略することがある。また以下の説明において、同種の構成を区別する必要がある場合、構成を総称する符号の後に括弧書きで識別子(数字、アルファベット等)を表記することがある。 Embodiments will be described below with reference to the drawings. In the following description, the same reference numerals may be given to the same or similar configurations, and redundant description may be omitted. Further, in the following description, when it is necessary to distinguish the same type of configuration, an identifier (number, alphabet, etc.) may be written in parentheses after a symbol that generically refers to the configuration.
[第1実施形態]
図1に第1実施形態として説明する作業監視システム1の概略的な構成を示している。同図に示すように、作業監視システム1は、画像取得装置3、各種センサ4、及び情報処理装置である作業監視装置100を含む。画像取得装置3、各種センサ4、及び作業監視装置100は、有線又は無線の通信手段5を介して通信可能に接続されている。通信手段5の構成は必ずしも限定されないが、例えば、USB(Universal Serial Bus)やRS-232C等の各種通信規格に準拠した通信手段、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット、専用線等である。
[First embodiment]
FIG. 1 shows a schematic configuration of a
画像取得装置3(撮影装置)は、作業者2や作業者2の周囲を映した画像データを取得する装置であり、例えば、動画や静止画の画像データを取得(撮影)するカメラ(デジタルカメラ(RGBカメラ)、赤外線カメラ、サーモグラフィカメラ、タイムオブフライト(TOF: Time Of Flight)カメラ、ステレオカメラ等)である。
The image acquisition device 3 (photographing device) is a device that acquires image data showing the
各種センサ4は、作業者2が作業を行う作業環境に設けられ、作業者2や作業環境についての物理的な情報を出力する。各種センサ4は、例えば、動体検知センサ、人感センサ、温度センサ、湿度センサ、加速度センサ、速度センサ、音響センサ(マイクロホン)、超音波センサ、振動センサ、ミリ波レーダ、レーザレーダ(LIDAR: Laser Imaging Detection and Ranging)、赤外線深度センサである。
作業監視装置100は、画像取得装置3によって取得される画像データに基づき作業者2の作業の監視に関する処理を行う。
The
図2に作業監視装置100のハードウェア構成例を示している。作業監視装置100は、情報処理装置(コンピュータ)であり、プロセッサ11、主記憶装置12、補助記憶装置13、入力装置14、出力装置15、及び通信装置16を備える。
FIG. 2 shows a hardware configuration example of the
プロセッサ11は、例えば、演算処理を行う装置であり、CPU(Central Processing
Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、AI(Artificial Intelligence)チップ等である。主記憶装置12は、プログラムやデー
タを記憶する装置であり、例えば、ROM(Read Only Memory)(SRAM(Static Random Access Memory)、NVRAM(Non Volatile RAM)、マスクROM(Mask Read Only Memory)、PROM(Programmable ROM)等)、RAM(Random Access Memory)(DRAM(Dynamic Random Access Memory)等)等である。補助記憶装置13は、ハードディスクドライブ(Hard Disk Drive)、フラッシュメモリ(Flash Memory)、SSD(Solid State Drive)、光学式記憶装置(CD(Compact Disc)、DVD(Digital Versatile
Disc)等)等である。補助記憶装置13に格納されているプログラムやデータは、主記憶装置12に随時読み込まれる。
The
Unit), MPU (Micro Processing Unit), GPU (Graphics Processing Unit), AI (Artificial Intelligence) chip, and the like. The
Disc), etc.). Programs and data stored in the
入力装置14は、ユーザから情報を受付けるユーザインタフェースであり、例えば、キーボード、マウス、カードリーダ、タッチパネル等である。出力装置15は、各種の情報を出力(表示出力、音声出力、印字出力等)するユーザインタフェースであり、例えば、各種情報を可視化する表示装置(LCD(Liquid Crystal Display)、グラフィックカード等)や音声出力装置(スピーカ)、印字装置等である。
The
通信装置16は、通信手段5を介して他の装置と通信する通信インタフェースであり、例えば、NIC(Network Interface Card)、無線通信モジュール、USB(Universal Serial Interface)モジュール、シリアル通信モジュール等である。通信装置16は、通信可能に接続する他の装置から情報を受信する入力装置として機能することもできる。また通信装置16は、通信可能に接続する他の装置に情報を送信する出力装置として機能することもできる。作業監視装置100は、通信装置16により通信手段5を介して画像取得装置3や各種センサ4と通信する。
The
作業監視装置100が備える各種の機能は、プロセッサ11が、主記憶装置12に格納されているプログラムを読み出して実行することにより、もしくは、作業監視装置100を構成しているハードウェア(FPGA、ASIC、AIチップ等)により実現される。
Various functions of the
図3に作業監視装置100が備える主な機能を示している。同図に示すように、作業監視装置100は、記憶部110、データ取得部120、準備設定処理部130、判定結果表生成部140、及び監視処理部150を備える。尚、作業監視装置100は、上記の機能に加えて、例えば、オペレーティングシステム、デバイスドライバ、ファイルシステム、DBMS(DataBase Management System)等の機能を更に備えていてもよい。
FIG. 3 shows main functions of the
上記の機能のうち、記憶部110は、画像データ111、センサデータ112、マーカ色データ113、判定対象領域データ114、判定結果表115、及び判定結果パターン/作業内容対応情報116を記憶する。尚、記憶部110は、例えば、DBMSが提供するデータベースのテーブルや、ファイルシステムが提供するファイルとしてこれらの情報(データ)を記憶する。
Among the functions described above, the
画像データ111は、画像取得装置3から取得されるデータであり、例えば、画像取得装置3から送られてくる、静止画データや動画データを構成するフレームのデータである。センサデータ112は、各種センサ4から取得されるデータである。尚、マーカ色データ113、判定対象領域データ114、判定結果表115、及び判定結果パターン/作業内容対応情報116の詳細については後述する。
The
データ取得部120は、他の装置から送られてくるデータを取得(受信)する。同図に
示すように、データ取得部120は、画像データ取得部121とセンサデータ取得部122を含む。このうち画像データ取得部121は、画像取得装置3から画像データ111を取得する。センサデータ取得部122は、各種センサ4からセンサデータ112を取得する。
The
準備設定処理部130は、作業監視装置100が作業者2の作業を監視する際に用いる各種の情報の設定に関する処理を行う。同図に示すように、準備設定処理部130は、マーカ色設定処理部131、判定対象領域設定処理部132、及び対応情報設定処理部133を含む。
The preparation
このうちマーカ色設定処理部131は、画像データ111に基づき、作業者2や物体の位置を認識するために、作業者2の体や作業対象物、作業に用いる道具等に設けられている表示(以下、「マーカ」と称する。)の色に関する設定を行う。例えば、マーカ色設定処理部131は、画像データ111においてマーカが映っている領域の色データ(例えばRGB値で表現されたデータ)を取得し、当該マーカの識別子(以下、「マーカID」と称する。)と当該色データとを対応づけた情報を含むデータであるマーカ色データ113を生成する。
Among these, the marker color
判定対象領域設定処理部132は、画像データ111に対する領域(以下、「判定対象領域」と称する。)の設定に関する処理を行う。判定対象領域設定処理部132は、例えば、ユーザから判定対象領域の設定を受け付ける。また判定対象領域設定処理部132は、自動的に画像データに判定対象領域を設定する。判定対象領域設定処理部132は、設定した判定対象領域を特定する情報を含んだデータである判定対象領域データ114を生成する。判定対象領域データ114は、例えば、判定対象領域の識別子(以下、「判定対象領域ID」と称する。)と画像データの座標系で領域を示した情報とを対応づけた情報を含む。
The determination target region
対応情報設定処理部133は、マーカが設けられているオブジェクト(作業者2の体の所定部位、作業対象、作業者2が使う道具等の作業に関する物体)が各判定対象領域内に存在する(映っている)か否かを示す情報を含むデータである判定結果表115のパターン(以下、「判定結果パターン」と称する。)と、判定結果パターンに対応する作業内容を特定する情報(以下、「作業内容情報」と称する。)と、を対応づけた情報である判定結果パターン/作業内容対応情報116の設定に関する処理を行う。尚、作業内容情報は、判定結果パターンの作業が、正常な作業についてのものであるか異常な作業についてのものであるかを示す情報(以下、「正常/異常区分」と称する。)を含む。判定結果表115の詳細については後述する。
The correspondence information setting
判定結果表生成部140は、画像データ111に基づき判定結果表115を生成する。同図に示すように、判定結果表生成部140は、マーカ位置検出処理部141と判定結果表生成処理部142を含む。
The determination result
このうちマーカ位置検出処理部141は、マーカ色データ113を用いて画像データ111におけるマーカが映っている位置(本例ではマーカが移っている領域の重心位置とする)を検出する。
Among them, the marker position
判定結果表生成処理部142は、検出したマーカの位置と判定対象領域データ114とを対照することにより判定結果表115を生成する。
The determination result table
図4(a)に画像データ111の例を示す。例示する画像データ111には、オブジェクト41(1)~41(4)の夫々に設けられている複数のマーカ42(1)~42(4
)が映っている。また判定対象領域43(1)~(3)が設定されている。
An example of the
) is shown. Determination target areas 43(1) to 43(3) are also set.
図4(b)は、図4(a)に示す画像データ111に映っているマーカ42(1)~(4)の位置と判定対象領域43(1)~(3)を抽出して描いた図である。本例では判定対象領域43(1)~(3)は矩形枠としているが、他の形状としてもよい。
FIG. 4(b) is drawn by extracting the positions of the markers 42(1)-(4) and the determination target regions 43(1)-(3) appearing in the
図4(c)は、図4(a)に示した画像データ111に基づき生成される判定結果表115である。同図に示すように、判定結果表115は、行方向にマーカIDを、列方向に判定対象領域IDを、夫々設定した二次元表(テーブル)である。また同図に示すように、列方向には、さらにマーカの可視/不可視(画像データ111に映っているか否か)を示す項目(以下、「Visible」と称する。)が設けられている。尚、前述した判定結果パ
ターンも判定結果表115と同様の構成を有する。
FIG. 4(c) is a judgment result table 115 generated based on the
本例の場合、例えば、マーカIDが「Object 1」のオブジェクトについては、画像データ111に映っているので「Visible」の値は「True」に設定され、判定対象領域IDが
「Area 1」の領域内であるので当該項目は「True」に設定され、判定対象領域IDが「Area 2」の領域外であるので当該項目は「False」に設定され、判定対象領域IDが「Area 3」の領域外であるので当該項目は「False」に設定されている。
In the case of this example, for example, for an object with a marker ID of "
またマーカIDが「Object 2」のオブジェクトについては、画像データ111に映っているので「Visible」の値は「True」に設定され、判定対象領域IDが「Area 1」の判定
対象領域内であるので当該項目は「True」に設定され、判定対象領域IDが「Area 2」の判定対象領域内であるので当該項目は「True」に設定され、判定対象領域IDが「Area 3」の判定対象領域外であるので当該項目は「False」に設定されている。
As for the object whose marker ID is "
またマーカIDが「Object 3」のオブジェクトについては、画像データ111に映っているので「Visible」の値は「True」に設定され、判定対象領域IDが「Area 1」の判定
対象領域外であるので当該項目は「False」に設定され、判定対象領域IDが「Area 2」
の判定対象領域外であるので当該項目は「False」に設定され、判定対象領域IDが「Area 3」の判定対象領域内であるので当該項目は「True」に設定されている。
As for the object with the marker ID "
This item is set to "False" because it is outside the determination target area of "
またマーカIDが「Object 4」のオブジェクトについては、画像データ111に映っているので「Visible」の値は「True」に設定され、判定対象領域IDが「Area 1」の判定
対象領域外であるので当該項目は「False」に設定され、判定対象領域IDが「Area 2」
の判定対象領域外であるので当該項目は「False」に設定され、判定対象領域IDが「Area 3」の判定対象領域外であるので当該項目は「False」に設定されている。
As for the object whose marker ID is "
, the item is set to "False" because it is outside the determination target area of "
またマーカIDが「Object 5」のオブジェクトについては、画像データ111に映っていないため、「Visible」の値は「False」に設定され、判定対象領域IDが「Area 1」、「Area 2」、「Area 3」の各項目の値はいずれも「False」に設定されている。
For the object with the marker ID "
尚、以上に示した判定結果表115の内容は、作業者2が行う個々の作業の特徴を表している。そのため、作業者2が行う個々の作業(正常な作業または異常な作業)について取得した画像データ111に基づく判定結果表115を判定結果パターンとして事前に用意しておくことで、新たに作業者2の作業を映した画像データ111に基づき作業者2が行っている作業を容易かつ精度よく特定することができる。
The content of the determination result table 115 shown above represents the characteristics of each work performed by the
図5に、作業者2が行う個々の作業について生成した判定結果パターン(判定結果表115)の例(同図では(a)~(c)で示す3例)を示す。尚、判定結果表115は「Visible」の項目を有しており、画像データ111にマーカが映っているか否かについての
情報も含むので、作業者2の作業を高い精度で特定することができる。また画像データ111に映っているマーカの位置の特定は情報処理装置を用いて自動的に行うことができるので、ユーザは画像データ111に判定対象領域を設定しておくだけで容易に判定結果表115を生成することができる。このように、本実施形態の作業監視装置100によれば、異なる作業が行われる個々の現場において作業者2の作業を監視する仕組みを容易に実現することができる。
FIG. 5 shows examples of judgment result patterns (judgment result table 115) generated for individual works performed by the worker 2 (three examples indicated by (a) to (c) in FIG. 5). Note that the determination result table 115 has an item of "Visible" and includes information as to whether or not the marker is shown in the
図3に戻り、監視処理部150は、画像取得装置3から送られてくる画像データ111に基づき作業者2の作業を監視する。同図に示すように、監視処理部150は、判定結果表取得部151と異常有無判定処理部152とを含む。
Returning to FIG. 3 , the
このうち判定結果表取得部151は、判定結果表生成部140から、画像データ111に基づき生成される判定結果表115を取得する。
Of these, the determination result
異常有無判定処理部152は、判定結果表115に基づき、作業者2の作業が正常か異常かを判定して判定結果を出力する。異常有無判定処理部152は、例えば、画像データ111に基づき生成した判定結果表115が、判定結果パターン/作業内容対応情報116に登録されている正常/異常区分が「正常」に設定されている判定結果パターンのいずれかと一致する場合は作業者2の作業は正常であると判定し、いずれにも一致しない場合は作業者2の作業は異常と判定する。また異常有無判定処理部152は、例えば、画像データ111に基づき生成した判定結果表115が、判定結果パターン/作業内容対応情報116に登録されている正常/異常区分が「異常」の判定結果パターンのいずれかと一致する場合は作業者2の作業は異常であると判定し、いずれにも一致しない場合は作業者2の作業は正常と判定する。尚、判定結果表115と判定結果パターンの一致は必ずしも完全一致を意味せず、例えば、不一致の度合いが予め設定した許容範囲内であれば一致と判定するようにしてもよい。
The abnormality presence/absence
<処理説明>
続いて、作業監視装置100が行う処理について説明する。尚、以下の説明において、作業監視装置100が作業者2の作業を監視している間、画像取得装置3の撮影範囲は固定されているものとする。また各マーカは夫々異なる色を有するものとする。
<Description of processing>
Next, processing performed by the
図6は、現場の作業者2の作業の監視に際して作業監視装置100が行う処理(以下、「メイン処理S600」と称する。)を説明するフローチャートである。
FIG. 6 is a flowchart for explaining the processing (hereinafter referred to as "main processing S600") performed by the
同図に示すように、まず準備設定処理部130が、作業者2の作業を監視するために必要な情報を設定する処理(マーカ色設定処理S611、判定対象領域設定処理S612、及び対応情報登録処理S613)を行う。これらの各処理の詳細については後述する。
As shown in the figure, the preparation
続いて、監視処理部150が、作業者2の作業を監視する処理(作業監視処理S614)を行う。
Subsequently, the
図7は、図6のマーカ色設定処理S611の詳細を説明するフローチャートである。 FIG. 7 is a flowchart for explaining the details of the marker color setting process S611 in FIG.
同図に示すように、まず画像データ取得部121が、画像取得装置3から画像データ111を取得する(S711)。
As shown in the figure, first, the image
続いて、マーカ色設定処理部131が、画像データ111に映っているマーカの領域の色データ(RGBデータ)を取得する(S712)。尚、画像データ111に複数のマーカが映っている場合、マーカ色設定処理部131は各マーカの領域の色データを取得する
。
Subsequently, the marker color
続いて、マーカ色設定処理部131は、取得した色データを所定の色空間(HSV(Hue Saturation Value)、HSB(Hue Saturation Brightness)等)のデータに変換する
(S713)。尚、色空間への変換は必ずしも行わなくてもよく、変換を行うか否かは、例えば、要求される監視精度(作業者2の作業が正常か異常かの判定精度)に応じて決定すればよい。またいずれの色空間を選択するかについても同様である。
Subsequently, the marker color
続いて、マーカ色設定処理部131は、変換後のデータをマーカIDと対応づけてマーカ色データ113として記憶する(S714)。
Subsequently, the marker color
図8は、図6の判定対象領域設定処理S612の詳細を説明するフローチャートである。 FIG. 8 is a flowchart for explaining the details of the determination target area setting process S612 in FIG.
同図に示すように、まず画像データ取得部121が、画像取得装置3から画像データ111を取得する(S811)。
As shown in the figure, first, the image
続いて、判定対象領域設定処理部132が、取得した画像データ111に判定対象領域を一つ以上設定する(S812)。判定対象領域設定処理部132は、例えば、ユーザとの対話処理により判定対象領域を設定する。尚、ユーザは、例えば、過去の判定対象領域の設定内容と判定精度の関係に基づき、要求される監視精度が確保されるように判定対象領域を適切に設定する。また判定対象領域設定処理部132は、例えば、過去の判定対象領域の設定内容と判定精度の関係に基づき、要求される監視精度が確保されるように自動的に判定対象領域を設定する。
Subsequently, the determination target
続いて、判定対象領域設定処理部132は、設定した判定対象領域を判定対象領域データ114として記憶する(S813)。
Subsequently, the determination target
図9は、図6の対応情報登録処理S613の詳細を説明するフローチャートである。 FIG. 9 is a flowchart for explaining the details of the correspondence information registration process S613 of FIG.
同図に示すように、まず画像データ取得部121が、画像取得装置3から画像データ111を取得する(S911)。
As shown in the figure, first, the image
続いて、対応情報設定処理部133は、取得した画像データ111を判定結果表生成部140に送る。判定結果表生成部140は、送られてきた画像データ111に基づき判定結果表115を取得する処理(以下、「判定結果表生成処理S912」と称する。)を行い、生成した判定結果表115を対応情報設定処理部133に返す。尚、判定結果表生成処理S912の詳細については後述する。
Subsequently, the correspondence
続いて、対応情報設定処理部133は、当該画像データ111についての作業内容情報の入力(設定)をユーザから受け付ける(S913)。
Subsequently, the correspondence information setting
続いて、対応情報設定処理部133は、判定結果表生成部140から送られてきた判定結果表115と受け付けた作業内容情報とを対応づけて判定結果パターン/作業内容対応情報154に登録する(S914)。
Subsequently, the correspondence information setting
図10は、図9の判定結果表生成処理S912の詳細を説明するフローチャートである。 FIG. 10 is a flowchart for explaining the details of the determination result table generation processing S912 of FIG.
同図に示すように、まずマーカ位置検出処理部141が、画像データ111に含まれて
いる各マーカの位置を検出する処理(以下、「マーカ位置検出処理S1011」と称する。)を行う。マーカ位置検出処理S1011の詳細については後述する。
As shown in the figure, first, the marker position
続いて、判定結果表生成処理部142が、判定対象領域データ114を取得する(S1012)。
Subsequently, the determination result table
続いて、判定結果表生成処理部142が、検出したマーカの位置と取得した判定対象領域データ114とを対照して判定結果表115を生成する(S1013)。
Subsequently, the determination result table
図11は、図10のマーカ位置検出処理S811の詳細を説明するフローチャートである。 FIG. 11 is a flowchart for explaining details of the marker position detection processing S811 of FIG.
同図に示すように、まずマーカ位置検出処理部141が、マーカ色データ113を取得する(S1111)。尚、複数のマーカのマーカ色データ113が存在する場合、マーカ位置検出処理部141は全てのマーカ色データ113を取得する。
As shown in the figure, first, the marker position
続いて、マーカ位置検出処理部141は、画像データ111から、マーカ色データ113に対応する領域(一致もしくは類似度が予め設定された閾値以下である領域。以下、「マーカ領域」と称する。)を検出する(S1112)。尚、複数のマーカのマーカ色データ113を取得している場合、各マーカ色データについてマーカ領域を検出する。
Subsequently, the marker position
続いて、マーカ位置検出処理部141は、例えば公知のノイズ除去技術(画像処理、モルフォロジー演算等)を用いて、検出したマーカ領域からノイズ情報を除去する(S1113)。
Subsequently, the marker position
続いて、マーカ位置検出処理部141は、マーカ領域の重心位置(重心座標)を特定する(S1114)。
Subsequently, the marker position
続いて、マーカ位置検出処理部141は、同じマーカ色データに対応するマーカ領域が複数存在する否かを調べ、複数存在する場合はそのうちの一つを選択する(S1115)。例えば、マーカ位置検出処理部141は、マーカ領域の色がマーカ色データに最も近いものを選択する。また例えば、マーカ位置検出処理部141は、マーカ領域の画像データ111内の位置が所定範囲内であるか否かに基づきマーカ領域を選択する。
Subsequently, the marker position
続いて、マーカ位置検出処理部141は、選択したマーカ領域の重心をマーカ位置として設定する(S1116)。
Subsequently, the marker position
図12は、図6の作業監視処理S614の詳細を説明するフローチャートである。 FIG. 12 is a flowchart for explaining the details of the work monitoring process S614 of FIG.
同図に示すように、まず画像データ取得部121が、画像取得装置3から一つ以上の画像データ111を取得する(S1211)。この画像データ111は、例えば、作業者2の様子を映した動画データの1フレームの画像である。
As shown in the figure, first, the image
続いて、判定結果表取得部151が、取得した画像データ111を判定結果表生成部140に渡し、判定結果表生成部140から判定結果表115を取得する(S1212)。尚、S1212の処理は、前述した判定結果表生成処理S912と同様であるので説明を省略する。
Subsequently, the determination result
続いて、異常有無判定処理部152が、取得した判定結果表115に基づき、作業者2の作業が正常か否かを判定し(S1213)、判定結果を出力装置15に出力する(S1
214)。
Subsequently, the abnormality presence/absence
214).
続いて、監視処理部150は、作業者2の作業が終了したか否かを判定する(S1215)。作業が終了していれば(S1215:YES)、監視処理S414は終了し、作業が終了していなければ(S1215:NO)、処理はS1211に戻る。尚、監視処理部150は、作業が終了したか否かを、例えば、ユーザから入力される情報に基づき判定する。
Subsequently, the
以上、詳細に説明したように、本実施形態の作業監視装置100によれば、判定結果パターンを事前に用意しておくことで、新たに作業者2の作業を映した画像データ111から、作業者2が行っている作業が正常であるか異常であるかを精度よく判定することができる。そのため、個々の現場の作業者2の作業を監視する仕組みを容易に実現することができる。
As described above in detail, according to the
ところで、以上において示した判定結果表115は、マーカに関する情報(マーカの位置が判定対象領域内であるか否かの情報とマーカが画像データ111に映っているか否かの情報)とを含むものであったが、判定結果表115及び判定結果パターンに、更に画像データ111を取得した時に各種センサ4から取得されるセンサデータの情報を含ませ、監視処理部150がセンサデータの値も考慮して判定結果表115と判定結果パターン/作業内容対応情報116とを対照し、作業の特定や作業の異常有無の判定を行うようにしてもよい。判定結果表115及び判定結果パターンにセンサデータの情報を更に含ませることで、個々の作業の特徴をより詳細に表現することができ、作業の判定精度を高めることができる。
By the way, the determination result table 115 shown above includes information on markers (information on whether or not the position of the marker is within the determination target area and information on whether or not the marker appears in the image data 111). However, the determination result table 115 and the determination result pattern further include sensor data information acquired from the
図13にその場合における判定結果表115の例を示す。例示する判定結果表115は、前述した判定結果表115の各項目に加えて、行方向にセンサの識別子(以下、「センサID」と称する。)が設定される項目(「Sensor 1」、「Sensor 2」)を含む。また列方向にセンサデータの値が設定される項目(「Value 1」、「Value 2」)を含む。
FIG. 13 shows an example of the determination result table 115 in that case. The determination result table 115 illustrated includes, in addition to each item of the determination result table 115 described above, items ("
[第2実施形態]
第2実施形態の作業監視装置100は、第1実施形態における作業者2の作業監視の仕組みを用いて作業者2が作業に要している時間(以下、「作業時間」と称する。)を取得し、取得した作業時間と予め設定した標準作業時間とを比較することにより作業者2が行っている作業を監視(作業が正常か異常かを判定)する。以下、第1実施形態と異なる部分を中心として説明する。
[Second embodiment]
The
図14に第2実施形態の作業監視装置100が備える主な機能を示す。同図に示すように、第2実施形態の作業監視装置100の記憶部110は、第1実施形態の作業監視装置100の記憶部110が記憶する情報に加えて、作業者2が行う作業毎の標準作業時間を示す情報を含むデータである作業毎標準作業時間117を記憶する。また第2実施形態の作業監視装置100の異常有無判定処理部152は、標準作業時間と作業時間を比較することにより作業者2が行っている作業が正常か異常かを判定する機能を有する。
FIG. 14 shows main functions of the
図15は、第2実施形態における作業監視処理S614を説明するフローチャートである。尚、第2実施形態における他の処理(作業監視装置100が行う第1実施形態で説明した他の処理)については第1実施形態と同様であるので説明を省略する。 FIG. 15 is a flowchart for explaining work monitoring processing S614 in the second embodiment. Other processes in the second embodiment (other processes described in the first embodiment performed by the work monitoring device 100) are the same as those in the first embodiment, so descriptions thereof will be omitted.
同図に示すように、まず監視処理部150は、以下の処理で用いる作業変数である「作業時間」と「前回作業」とを初期化する(S1511)。尚、「作業時間」には、作業者2がある作業を行っている際の累積作業時間が設定される。また「前回作業」には、S1
512からのループ処理において前回特定した作業を示す情報(例えば、前述の作業内容情報)が設定される。
As shown in the figure, first, the
In the loop processing from 512, information indicating the previously specified work (for example, the work content information described above) is set.
続いて、画像データ取得部121が、画像取得装置3から一つ以上の画像データ111を取得する(S1512)。この画像データ111は作業者2の様子を映した動画データの1フレームの画像である。尚、S1512~S1517のループ処理では、動画データの1フレームの画像データ111が時系列に順次選択される。
Subsequently, the image
続いて、判定結果表取得部151が、取得した画像データ111を判定結果表生成部140に渡し、判定結果表生成部140から判定結果表115を取得する(S1513)。尚、S1513の処理は、第1実施形態で説明した判定結果表生成処理S912と同様であるので説明を省略する。
Subsequently, the determination result
続いて、異常有無判定処理部152が、取得した判定結果表115と判定結果パターン/作業内容対応情報116とを対照することにより作業者2が行っている作業を特定する(S1514)。
Subsequently, the abnormality presence/absence
続いて、異常有無判定処理部152は、特定した作業が「前回作業」と同じか否かを判定する(S1515)。特定した作業が「前回作業」と同じであれば(S1515:YES)、処理はS1516に進む。尚、1回目のループではS1515の処理はスキップしてS1516の処理に進む。
Subsequently, the abnormality presence/absence
特定した作業が「前回作業」と異なっていれば(S1515:NO)、処理はS1518に進む。 If the specified work is different from the "previous work" (S1515: NO), the process proceeds to S1518.
S1516では、異常有無判定処理部152は、「作業時間」を更新(例えば、前回更新時から現在までの時間を加算)する。
In S1516, the abnormality presence/absence
S1517では、異常有無判定処理部152は、S1514で特定した作業(例えば作業内容情報)を「前回作業」に設定する。その後、処理はS1512に戻る。
In S1517, the abnormality presence/absence
S1518では、異常有無判定処理部152は、S1514で特定した作業の標準作業時間を判定結果パターン/作業内容対応情報116から取得し、「作業時間」を標準作業時間と比較して、作業者2が行っている作業が異常であるか否かを判定する。例えば、異常有無判定処理部152は、「作業時間」と標準作業時間との差が所定時間以下であれば作業者2が行っている作業は正常と判定し、上記差が上記所定時間を超えていれば作業者2が行っている作業は異常と判定する。尚、上記所定時間を適切に設定することで、例えば、休憩時間等の作業以外に作業者2が費やしている時間を考慮しつつ上記判定を行うようにしてもよい。
In S1518, the abnormality presence/absence
S1519では、異常有無判定処理部152は、判定結果を出力装置15に出力する。
In S<b>1519 , the abnormality presence/absence
このように以上の仕組みによれば、第1実施形態における作業者2の作業監視の仕組みを用いることで、作業者2が行っている作業の作業時間に基づき、作業者2が行っている作業が正常であるか異常であるかを監視する仕組みを実現することができる。
As described above, according to the above mechanism, by using the mechanism for monitoring the work of the
[第3実施形態]
第3実施形態の作業監視装置100は、第1実施形態における作業者2の作業監視の仕組みを用いて作業者2が正しい作業順序に従って作業を行っているか否かを監視する。以下、第1実施形態と異なる部分を中心として説明する。
[Third Embodiment]
The
図16に第3実施形態の作業監視装置100が備える主な機能を示す。同図に示すように、第3実施形態の作業監視装置100の記憶部110は、第1実施形態の作業監視装置100の記憶部110が記憶する情報に加えて、正しい作業順序を示す情報を含むデータである作業順序情報118を記憶する。また第3実施形態の作業監視装置100の異常有無判定処理部152は、作業者2が予め設定されている正規の作業順序に従って作業を行っているか否かを判定する機能を有する。
FIG. 16 shows main functions of the
図17は、第3実施形態における作業監視処理S614を説明するフローチャートである。尚、第3実施形態における他の処理(作業監視装置100が行う第1実施形態で説明した他の処理)については第1実施形態と同様であるので説明を省略する。 FIG. 17 is a flowchart for explaining work monitoring processing S614 in the third embodiment. Other processes in the third embodiment (other processes described in the first embodiment performed by the work monitoring device 100) are the same as those in the first embodiment, so description thereof will be omitted.
同図に示すように、まず監視処理部150は、以下の処理で用いる作業変数である「前回作業」を初期化する(S1711)。尚、「前回作業」には、S1712からのループ処理において前回特定した作業を示す情報(例えば、前述の作業内容情報)が設定される。
As shown in the figure, the
続いて、画像データ取得部121が、画像取得装置3から一つ以上の画像データ111を取得する(S1712)。この画像データ111は、作業者2の様子を映した動画データの1フレームの画像である。尚、S1712~S1716のループ処理では、動画データの1フレームの画像データ111が時系列に順次選択される。
Subsequently, the image
続いて、判定結果表取得部151が、取得した画像データ111を判定結果表生成部140に渡し、判定結果表生成部140から判定結果表115を取得する(S1713)。尚、S1713の処理は、第1実施形態で説明した判定結果表生成処理S912と同様であるので説明を省略する。
Subsequently, the determination result
続いて、異常有無判定処理部152が、取得した判定結果表115と判定結果パターン/作業内容対応情報116とを対照することにより、作業者2が行っている作業を特定する(S1714)。
Subsequently, the abnormality presence/absence
続いて、異常有無判定処理部152は、特定した作業、「前回作業」、及び作業順序情報118を対照することにより、特定した作業が作業順序情報118における作業順序に従った作業であるか否かを判定する(S1715)。尚、1回目のループではS1715の処理はスキップしてS1716の処理に進む。特定した作業が作業順序情報118における作業順序に従った作業であれば(S1715:YES)、処理はS1716に進む。特定した作業が作業順序情報118における作業順序に従った作業でなければ(S1715:NO)、処理はS1717に進む。
Subsequently, the abnormality presence/absence
S1716では、異常有無判定処理部152は、S1714で特定した作業(例えば作業内容情報)を「前回作業」に設定する。その後、処理はS1712に戻る。
In S1716, the abnormality presence/absence
S1717では、異常有無判定処理部152は、判定結果(作業順序が正しい作業順序に従っていないことを示す情報)を出力装置15に出力する。
In S<b>1717 , the abnormality presence/absence
このように第1実施形態における作業者2の作業監視の仕組みを用いることで、作業者2が行っている作業が正しい作業順序に従っているか否かを監視する仕組みを実現することができる。
Thus, by using the work monitoring mechanism of the
[第4実施形態]
第4実施形態の作業監視装置100は、第1実施形態における作業者2の作業監視の仕組みを用いて、作業者2が行っている期間のうち解析対象とする作業が行われている期間を特定する。以下、第1実施形態と異なる部分を中心として説明する。
[Fourth embodiment]
The
図18に第4実施形態の作業監視装置100が備える主な機能を示す。同図に示すように、第4実施形態の作業監視装置100の記憶部110は、第1実施形態の作業監視装置100の記憶部110が記憶する情報に加えて、解析対象とする作業を示す情報(例えば、前述の作業内容情報)を含むデータである解析対象作業情報119を記憶する。また第4実施形態の作業監視装置100の異常有無判定処理部152は、作業者2が行っている期間のうち解析対象とする作業が行われている期間を特定する機能を有する。
FIG. 18 shows main functions of the
図19は、第4実施形態における作業監視処理S614を説明するフローチャートである。尚、第4実施形態における他の処理(作業監視装置100が行う第1実施形態で説明した他の処理)については第1実施形態と同様であるので説明を省略する。 FIG. 19 is a flowchart for explaining work monitoring processing S614 in the fourth embodiment. Other processes in the fourth embodiment (other processes described in the first embodiment performed by the work monitoring device 100) are the same as those in the first embodiment, so descriptions thereof will be omitted.
同図に示すように、まず画像データ取得部121が、画像取得装置3から一つ以上の画像データ111を取得する(S1911)。この画像データ111は、作業者2の様子を映した動画データの1フレームの画像である。尚、S1911~S1916のループ処理では、動画データの1フレームの画像データ111が時系列に順次選択される。
As shown in the figure, first, the image
続いて、判定結果表取得部151が、取得した画像データ111を判定結果表生成部140に渡し、判定結果表生成部140から判定結果表115を取得する(S1912)。尚、S1912の処理は、第1実施形態で説明した判定結果表生成処理S912と同様であるので説明を省略する。
Subsequently, the determination result
続いて、異常有無判定処理部152が、取得した判定結果表115と判定結果パターン/作業内容対応情報116とを対照することにより、作業者2が行っている作業を特定する(S1913)。
Subsequently, the abnormality presence/absence
続いて、異常有無判定処理部152は、特定した作業を解析対象作業情報119と対照し、特定した作業が解析対象か否かを判定する(S1914)。特定した作業が解析対象であれば(S1914:YES)、処理はS1915に進む。特定した作業が解析対象でなければ(S1914:NO)、処理はS1911に戻る。
Subsequently, the abnormality presence/absence
S1915では、異常有無判定処理部152は、作業者2が当該画像データのタイミングで解析対象の作業を行っている旨を示す情報を出力装置15に出力する。
In S1915, the abnormality presence/absence
以上の仕組みによれば、作業者2が連続して複数の作業を行う場合に、各作業が行われている期間を示す情報を出力することができ、例えば、作業者2が行う作業を解析しようとする者(以下、「解析者」と称する。)は、解析対象とする期間を容易に特定することができる。
According to the above mechanism, when the
図20に解析者が解析対象とする上記期間の例を示している。例えば、(a)に示すように、解析者は、以上の仕組みを利用して、解析対象とする作業の開始時点及び終了時点を特定することができる。また例えば、(b)に示すように、解析者は、以上の仕組みを利用して、解析対象とする開始時点を特定し、開始時点から所定時間を解析対象の期間として特定することができる。また例えば、(c)に示すように、解析者は、以上の仕組みを利用して、解析対象とする終了時点を特定し、終了時点から所定時間遡った時点から終了時点までを解析対象の期間として特定することができる。 FIG. 20 shows an example of the period to be analyzed by the analyst. For example, as shown in (a), the analyst can use the above mechanism to specify the start and end points of the work to be analyzed. Further, for example, as shown in (b), the analyst can use the above mechanism to specify the start point of time to be analyzed, and specify a predetermined time from the start point as the period to be analyzed. Also, for example, as shown in (c), the analyst uses the above mechanism to specify the end point of the analysis target, and the analysis target period is from the point before the end point by a predetermined time to the end point. can be specified as
以上、本発明の一実施形態について詳細に説明したが、本発明は上記の実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。例えば、上記の実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、説明した全ての構成を備えるものに必ずしも限定されるものではない。また上記実施形態の構成の一部について、他の構成の追加や削除、置換をすることが可能である。 Although one embodiment of the present invention has been described in detail above, it goes without saying that the present invention is not limited to the above-described embodiment, and can be variously modified without departing from the scope of the invention. For example, the above embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations. Moreover, it is possible to add, delete, or replace a part of the configuration of the above embodiment with another configuration.
例えば、以上の各実施形態で説明した作業監視処理S614は、リアルタイムに取得される動画データを対象として実行してもよいし、録画された動画データを対象として事後的に実行してもよい。 For example, the work monitoring process S614 described in each of the above embodiments may be performed on moving image data acquired in real time, or may be performed on recorded moving image data after the fact.
また上記の各構成、機能部、処理部、処理手段等は、それらの一部または全部を、例えば、集積回路で設計する等によりハードウェアで実現してもよい。また上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリやハードディスク、SSD(Solid State Drive)等の記録装置、IC
カード、SDカード、DVD等の記録媒体に置くことができる。
Further, each of the above configurations, functional units, processing units, processing means, and the like may be realized by hardware, for example, by designing a part or all of them using an integrated circuit. Moreover, each of the above configurations, functions, etc. may be realized by software by a processor interpreting and executing a program for realizing each function. Information such as programs, tables, files, etc. that realize each function can be stored in memory, hard disks, recording devices such as SSDs (Solid State Drives), ICs, etc.
It can be placed on a recording medium such as a card, SD card, or DVD.
また上記の各図において、制御線や情報線は説明上必要と考えられるものを示しており、必ずしも実装上の全ての制御線や情報線を示しているとは限らない。例えば、実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Further, in each of the above drawings, control lines and information lines are those considered necessary for explanation, and not all control lines and information lines for implementation are necessarily shown. For example, it may be considered that almost all structures are interconnected in practice.
また以上に説明した各情報処理装置の各種機能部、各種処理部、各種データベースの配置形態は一例に過ぎない。各種機能部、各種処理部、各種データベースの配置形態は、これらの装置が備えるハードウェアやソフトウェアの性能、処理効率、通信効率等の観点から最適な配置形態に変更し得る。 Moreover, the arrangement form of various functional units, various processing units, and various databases of each information processing apparatus described above is merely an example. The arrangement form of various functional units, various processing units, and various databases can be changed to an optimum arrangement form from the viewpoint of the performance, processing efficiency, communication efficiency, etc. of hardware and software provided in these devices.
また前述した各種のデータを格納するデータベースの構成(スキーマ(Schema)等)は、リソースの効率的な利用、処理効率向上、アクセス効率向上、検索効率向上等の観点から柔軟に変更し得る。 Also, the configuration of the database (schema, etc.) that stores the various data described above can be flexibly changed from the viewpoints of efficient use of resources, improvement of processing efficiency, improvement of access efficiency, improvement of search efficiency, and the like.
また前述したマーカを用いた位置検知方法の代わりに、作業者2の身体を自動的に検出できるセンサまたは画像認識手法を利用してオブジェクトの位置検知を行うようにしてもよい。また作業対象物または作業に用いる道具等を自動的に検出できるセンサまたは画像認識手法を利用してオブジェクトの位置検知を行うようにしてもよい。この場合、自動的に検出された身体や作業対象物などの位置情報を用いて、前述した実施形態と同様の処理を行うこととなる。
Further, instead of the position detection method using the markers described above, a sensor capable of automatically detecting the body of the
1 作業監視システム
2 作業者
3 画像取得装置
4 各種センサ
5 通信手段
100 作業監視装置
111 画像データ
112 センサデータ
113 マーカ色データ
114 判定対象領域データ
115 判定結果表
116 判定結果パターン/作業内容対応情報
120 データ取得部
121 画像データ取得部
122 センサデータ取得部
130 準備設定処理部
131 マーカ色設定処理部
132 判定対象領域設定処理部
133 対応情報設定処理部
140 判定結果表生成部
141 マーカ位置検出処理部
142 判定結果表生成処理部
150 監視処理部
151 判定結果表取得部
152 異常有無判定処理部
S600 メイン処理
S611 マーカ色設定処理
S612 判定対象領域設定処理
S613 対応情報登録処理
S912 判定結果表生成処理
S1011 マーカ位置検出処理
S614 作業監視処理
1 work
Claims (13)
作業者が作業を行っている様子を映した画像データを取得する画像データ取得部と、
前記画像データに映っている複数の物体について前記画像データにおける夫々の位置を示す情報を取得する物体位置検出部と、
前記画像データに設定された領域である一つ以上の判定対象領域の夫々に前記複数の物体の夫々の前記位置が含まれているか否かを判定した結果を示す情報を含んだ判定結果表を生成する判定結果表生成部と、
前記画像データに基づき生成される前記判定結果表と当該画像データにおける作業を示す情報である作業内容情報とを対応づけた情報である判定結果パターン/作業内容対応情報を記憶する記憶部と、
新たに取得された前記画像データについて前記判定結果表を生成し、生成した前記判定結果表と前記判定結果パターン/作業内容対応情報とを対照することにより前記作業者が行っている作業を特定する監視処理部と、
を備え、
前記判定結果表は、前記物体の前記位置が前記画像データに含まれているか否かを示す情報を更に含む、
作業監視装置。 configured using an information processing device having a processor and memory,
an image data acquisition unit that acquires image data of a worker performing work;
an object position detection unit that acquires information indicating the positions of each of a plurality of objects appearing in the image data in the image data;
a determination result table containing information indicating results of determining whether or not the positions of the plurality of objects are included in each of one or more determination target areas set in the image data; a determination result table generation unit to generate;
a storage unit that stores determination result pattern/work content correspondence information that is information in which the determination result table generated based on the image data and work content information that is information indicating work in the image data are associated;
The determination result table is generated for the newly acquired image data, and the work performed by the worker is specified by comparing the generated determination result table with the determination result pattern/work content correspondence information. a monitoring processing unit;
with
The determination result table further includes information indicating whether the position of the object is included in the image data,
Work monitoring device.
前記作業者が作業を行う現場に設けられたセンサが出力するデータであるセンサデータを取得するセンサデータ取得部をさらに備え、
前記判定結果表は、前記センサから取得した前記センサデータをさらに含み、
前記監視処理部は、新たに取得された前記画像データと当該画像データの取得時に前記センサから取得した前記センサデータとに基づき前記判定結果表を生成し、生成した前記判定結果表と前記判定結果パターン/作業内容対応情報とを対照して人が行っている作業を特定する、
作業監視装置。 The work monitoring device according to claim 1,
Further comprising a sensor data acquisition unit that acquires sensor data, which is data output by a sensor provided at the site where the worker works,
The determination result table further includes the sensor data obtained from the sensor,
The monitoring processing unit generates the determination result table based on the newly acquired image data and the sensor data acquired from the sensor when the image data is acquired, and generates the determination result table and the determination result. identify the work that the person is doing by comparing with the pattern/work content correspondence information;
Work monitoring device.
前記記憶部は、所定の前記作業に要する標準の作業時間を示す情報を記憶し、
前記画像データ取得部は、前記作業者が作業を行っている様子を映した時系列の画像データを取得し、
前記判定結果表生成部は、時系列の前記画像データの夫々について前記判定結果表を生成し、
前記監視処理部は、前記判定結果表の夫々と前記判定結果パターン/作業内容対応情報とを対照して前記作業者が行っている作業を特定することにより、前記作業者が前記所定の作業に要した作業時間を取得し、前記作業時間と前記標準の作業時間とを比較することにより前記作業者が行っている作業を監視する、
作業監視装置。 The work monitoring device according to claim 1 or 2 ,
The storage unit stores information indicating a standard work time required for the predetermined work,
The image data acquisition unit acquires time-series image data showing the worker working,
The determination result table generation unit generates the determination result table for each of the time-series image data,
The monitoring processing unit compares each of the determination result tables with the determination result pattern/work content correspondence information to specify the work performed by the worker, thereby enabling the worker to perform the predetermined work. Obtaining the required work time and monitoring the work performed by the worker by comparing the work time with the standard work time;
Work monitoring device.
前記記憶部は、前記作業者が行う複数の前記作業についての標準の作業順序を示す情報を記憶し、
前記画像データ取得部は、前記作業者が作業を行っている様子を映した時系列の画像データを取得し、
前記判定結果表生成部は、時系列の前記画像データの夫々について前記判定結果表を生
成し、
前記監視処理部は、前記判定結果表の夫々と前記判定結果パターン/作業内容対応情報とを対照して前記作業者が行っている作業を特定することにより、前記作業者が行っている作業の順序を特定し、特定した前記作業順序と前記標準の作業順序とを比較することにより前記作業者が行っている作業を監視する、
作業監視装置。 The work monitoring device according to claim 1 or 2 ,
The storage unit stores information indicating a standard work order for the plurality of work performed by the worker,
The image data acquisition unit acquires time-series image data showing the worker working,
The determination result table generation unit generates the determination result table for each of the time-series image data,
The monitoring processing unit compares each of the determination result tables with the determination result pattern/work content correspondence information to specify the work performed by the worker, thereby determining the work performed by the worker. Identifying an order and monitoring the work performed by the worker by comparing the identified work order with the standard work order;
Work monitoring device.
前記記憶部は、前記作業者が行う所定の作業を示す情報を記憶し、
前記画像データ取得部は、前記作業者が作業を行っている様子を映した時系列の画像データを取得し、
前記判定結果表生成部は、時系列の前記画像データの夫々について前記判定結果表を生成し、
前記監視処理部は、前記判定結果表の夫々と前記判定結果パターン/作業内容対応情報とを対照して前記作業者が行っている作業を特定することにより、前記所定の作業の開始又は終了のタイミングを示す情報を生成する、
作業監視装置。 The work monitoring device according to claim 1 or 2 ,
The storage unit stores information indicating a predetermined work to be performed by the worker,
The image data acquisition unit acquires time-series image data showing the worker working,
The determination result table generation unit generates the determination result table for each of the time-series image data,
The monitoring processing unit compares each of the determination result tables with the determination result pattern/work content correspondence information to specify the work being performed by the worker, thereby determining whether the predetermined work is to be started or finished. generate information indicating timing,
Work monitoring device.
前記画像データについての前記判定対象領域の設定を受け付ける判定対象領域設定処理部を更に備える、
作業監視装置。 The work monitoring device according to claim 1,
further comprising a determination target area setting unit that receives setting of the determination target area for the image data;
Work monitoring device.
前記物体は、前記作業者の体の一部、作業対象物、及び前記作業者が作業に際して用いる道具のうちの少なくともいずれかである、
作業監視装置。 The work monitoring device according to claim 1,
The object is at least one of a part of the worker's body, a work target, and a tool used by the worker during work,
Work monitoring device.
前記物体位置検出部は、前記物体に設けたマーカを画像認識することにより前記物体の前記画像データにおける位置を示す情報を取得する、
作業監視装置。 The work monitoring device according to claim 1,
The object position detection unit acquires information indicating the position of the object in the image data by image recognition of a marker provided on the object.
Work monitoring device.
作業者が作業を行っている様子を映した画像データを取得し、
前記画像データに映っている複数の物体について前記画像データにおける夫々の位置を示す情報を取得し、
前記画像データに設定された領域である一つ以上の判定対象領域の夫々に前記複数の物体の夫々の前記位置が含まれているか否かを判定した結果を示す情報を含んだ判定結果表を生成し、
前記画像データに基づき生成される前記判定結果表と当該画像データにおける作業を示す情報である作業内容情報とを対応づけた情報である判定結果パターン/作業内容対応情報を記憶し、
新たに取得された前記画像データについて前記判定結果表を生成し、生成した前記判定結果表と前記判定結果パターン/作業内容対応情報とを対照することにより前記作業者が行っている作業を特定し、
前記判定結果表は、前記物体の前記位置が前記画像データに含まれているか否かを示す情報を更に含む、
作業監視方法。 An information processing device having a processor and memory,
Acquire image data showing the state of the worker working,
Acquiring information indicating respective positions in the image data for a plurality of objects appearing in the image data;
a determination result table containing information indicating results of determining whether or not the positions of the plurality of objects are included in each of one or more determination target areas set in the image data; generate and
storing determination result pattern/work content correspondence information that is information in which the determination result table generated based on the image data and work content information that is information indicating work in the image data are associated;
The determination result table is generated for the newly acquired image data, and the work performed by the worker is specified by comparing the generated determination result table with the determination result pattern/work content correspondence information. ,
The determination result table further includes information indicating whether the position of the object is included in the image data,
Work monitoring method.
前記情報処理装置は、前記作業者が作業を行う現場に設けられたセンサが出力するデータであるセンサデータを取得し、
前記判定結果表は、前記センサから取得した前記センサデータをさらに含み、
前記情報処理装置は、新たに取得された前記画像データと当該画像データの取得時に前記センサから取得した前記センサデータとに基づき前記判定結果表を生成し、生成した前記判定結果表と前記判定結果パターン/作業内容対応情報とを対照して人が行っている作業を特定する、
作業監視方法。 The work monitoring method according to claim 9 ,
The information processing device acquires sensor data, which is data output by a sensor provided at a site where the worker works,
The determination result table further includes the sensor data obtained from the sensor,
The information processing device generates the determination result table based on the newly acquired image data and the sensor data acquired from the sensor when the image data is acquired, and generates the determination result table and the determination result. identify the work that the person is doing by comparing with the pattern/work content correspondence information;
Work monitoring method.
前記情報処理装置が、
所定の前記作業に要する標準の作業時間を示す情報を記憶し、
前記作業者が作業を行っている様子を映した時系列の画像データを取得し、
時系列の前記画像データの夫々について前記判定結果表を生成し、
前記判定結果表の夫々と前記判定結果パターン/作業内容対応情報とを対照して前記作業者が行っている作業を特定することにより、前記作業者が前記所定の作業に要した作業時間を取得し、前記作業時間と前記標準の作業時間とを比較することにより前記作業者が行っている作業を監視する、
作業監視方法。 The work monitoring method according to claim 9 or 10 ,
The information processing device
storing information indicating a standard work time required for the predetermined work;
Acquiring time-series image data showing how the worker is working,
generating the determination result table for each of the time-series image data;
By comparing each of the determination result tables with the determination result pattern/work content correspondence information to specify the work performed by the worker, the work time required for the predetermined work by the worker is acquired. and monitoring the work performed by the worker by comparing the work time with the standard work time;
Work monitoring method.
前記情報処理装置が、
前記作業者が行う複数の前記作業についての標準の作業順序を示す情報を記憶し、
前記作業者が作業を行っている様子を映した時系列の画像データを取得し、
時系列の前記画像データの夫々について前記判定結果表を生成し、
前記判定結果表の夫々と前記判定結果パターン/作業内容対応情報とを対照して前記作業者が行っている作業を特定することにより、前記作業者が行っている作業の順序を特定し、特定した前記作業順序と前記標準の作業順序とを比較することにより前記作業者が行っている作業を監視する、
作業監視方法。 The work monitoring method according to claim 9 or 10 ,
The information processing device
storing information indicating a standard work order for the plurality of work performed by the worker;
Acquiring time-series image data showing how the worker is working,
generating the determination result table for each of the time-series image data;
By identifying the work performed by the worker by comparing each of the determination result tables with the determination result pattern/work content correspondence information, the order of the work performed by the worker is specified and specified. monitoring the work being performed by the worker by comparing the work order and the standard work order;
Work monitoring method.
前記情報処理装置が、
前記作業者が行う所定の作業を示す情報を記憶し、
前記作業者が作業を行っている様子を映した時系列の画像データを取得し、
時系列の前記画像データの夫々について前記判定結果表を生成し、
前記判定結果表の夫々と前記判定結果パターン/作業内容対応情報とを対照して前記作業者が行っている作業を特定することにより、前記所定の作業の開始又は終了のタイミングを示す情報を生成する、
作業監視方法。 The work monitoring method according to any one of claims 9 and 10 ,
The information processing device
storing information indicating a predetermined work to be performed by the worker;
Acquiring time-series image data showing how the worker is working,
generating the determination result table for each of the time-series image data;
Information indicating the start or end timing of the predetermined work is generated by identifying the work performed by the worker by comparing each of the determination result tables with the determination result pattern/work content correspondence information. do,
Work monitoring method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019103551A JP7324618B2 (en) | 2019-06-03 | 2019-06-03 | Work monitoring device and work monitoring method |
PCT/JP2020/007755 WO2020246082A1 (en) | 2019-06-03 | 2020-02-26 | Work monitoring device and work monitoring method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019103551A JP7324618B2 (en) | 2019-06-03 | 2019-06-03 | Work monitoring device and work monitoring method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020197899A JP2020197899A (en) | 2020-12-10 |
JP7324618B2 true JP7324618B2 (en) | 2023-08-10 |
Family
ID=73649639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019103551A Active JP7324618B2 (en) | 2019-06-03 | 2019-06-03 | Work monitoring device and work monitoring method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7324618B2 (en) |
WO (1) | WO2020246082A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022176819A (en) * | 2021-05-17 | 2022-11-30 | 株式会社日立製作所 | Work recognition device and work recognition method |
WO2023166605A1 (en) * | 2022-03-02 | 2023-09-07 | 日本電気株式会社 | Action determination device, action determination method, and non-transitory computer-readable medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009032033A (en) | 2007-07-27 | 2009-02-12 | Omron Corp | Operation boundary detection method and operation analysis system |
JP2013145422A (en) | 2012-01-13 | 2013-07-25 | Panasonic Corp | Setting method of work detection system and work detection system using the same |
JP2014115700A (en) | 2012-12-06 | 2014-06-26 | Nec Corp | Confirmation requirement degree determination device, confirmation requirement degree determination method, and program |
JP2019032593A (en) | 2017-08-04 | 2019-02-28 | オリンパス株式会社 | Imaging system, imaging device and imaging method |
JP2019053527A (en) | 2017-09-15 | 2019-04-04 | キヤノン株式会社 | Assembly work analysis device, assembly work analysis method, computer program, and storage medium |
-
2019
- 2019-06-03 JP JP2019103551A patent/JP7324618B2/en active Active
-
2020
- 2020-02-26 WO PCT/JP2020/007755 patent/WO2020246082A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009032033A (en) | 2007-07-27 | 2009-02-12 | Omron Corp | Operation boundary detection method and operation analysis system |
JP2013145422A (en) | 2012-01-13 | 2013-07-25 | Panasonic Corp | Setting method of work detection system and work detection system using the same |
JP2014115700A (en) | 2012-12-06 | 2014-06-26 | Nec Corp | Confirmation requirement degree determination device, confirmation requirement degree determination method, and program |
JP2019032593A (en) | 2017-08-04 | 2019-02-28 | オリンパス株式会社 | Imaging system, imaging device and imaging method |
JP2019053527A (en) | 2017-09-15 | 2019-04-04 | キヤノン株式会社 | Assembly work analysis device, assembly work analysis method, computer program, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
WO2020246082A1 (en) | 2020-12-10 |
JP2020197899A (en) | 2020-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104919794B (en) | For extracting the method and system of metadata from master-slave mode camera tracking system | |
JP4752721B2 (en) | Movement pattern identification device, movement pattern identification method, movement pattern identification program, and recording medium recording the same | |
JP2019101919A (en) | Information processor, information processing method, computer program, and storage medium | |
JP7324618B2 (en) | Work monitoring device and work monitoring method | |
WO2017084319A1 (en) | Gesture recognition method and virtual reality display output device | |
JP2011029737A (en) | Surveillance image retrieval apparatus and surveillance system | |
JP2017530447A (en) | System and method for inputting a gesture in a 3D scene | |
JP2011130204A (en) | Video information processing method, and video information processing apparatus | |
US11106949B2 (en) | Action classification based on manipulated object movement | |
JP2017505965A (en) | Real-time 3D gesture recognition and tracking system for mobile devices | |
JP2007034525A (en) | Information processor, information processing method and computer program | |
JP2020135747A (en) | Action analysis device and action analysis method | |
JP2015219892A (en) | Visual line analysis system and visual line analysis device | |
WO2021020500A1 (en) | Information processing device and marketing activity assistance device | |
US20160110909A1 (en) | Method and apparatus for creating texture map and method of creating database | |
JP6909657B2 (en) | Video recognition system | |
JP2010146522A (en) | Face image tracking device, face image tracking method, and program | |
KR101447958B1 (en) | Method and apparatus for recognizing body point | |
JP2007048232A (en) | Information processing device, information processing method, and computer program | |
KR101520889B1 (en) | Digilog Book System Using Distance Information Between Object and Hand Device and Implementation Method Therof | |
JP7332465B2 (en) | Motion recognition system, motion recognition device, and region setting method | |
JP2015184743A (en) | Image processor and object recognition method | |
KR101530355B1 (en) | Method and system for searching motion capture data | |
KR20130056170A (en) | Real-time detection method of human abnormality using motion sequence and apparatus thereof | |
CN115273215A (en) | Job recognition system and job recognition method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230407 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230731 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7324618 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |