JP7324618B2 - Work monitoring device and work monitoring method - Google Patents

Work monitoring device and work monitoring method Download PDF

Info

Publication number
JP7324618B2
JP7324618B2 JP2019103551A JP2019103551A JP7324618B2 JP 7324618 B2 JP7324618 B2 JP 7324618B2 JP 2019103551 A JP2019103551 A JP 2019103551A JP 2019103551 A JP2019103551 A JP 2019103551A JP 7324618 B2 JP7324618 B2 JP 7324618B2
Authority
JP
Japan
Prior art keywords
work
determination result
image data
worker
result table
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019103551A
Other languages
Japanese (ja)
Other versions
JP2020197899A (en
Inventor
卓馬 寺田
洋登 永吉
直一 根本
宏樹 内山
一彦 日野
雅史 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019103551A priority Critical patent/JP7324618B2/en
Priority to PCT/JP2020/007755 priority patent/WO2020246082A1/en
Publication of JP2020197899A publication Critical patent/JP2020197899A/en
Application granted granted Critical
Publication of JP7324618B2 publication Critical patent/JP7324618B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Description

本発明は、作業監視装置、及び作業監視方法に関する。 The present invention relates to a work monitoring device and a work monitoring method.

特許文献1には、ロボットが人の姿勢、動作、又は挙動を認識するための動体の動作認識方法について記載されている。上記動作認識方法では、予め動体Aの基本動作ごとのフレーム画像データAが点で表示される固有空間データAを作成してデータベース化し、対象となる動体Bのフレーム画像データBが点で表示された固有空間データBと基本動作ごとの固有空間データAを比較し、固有空間データBからの距離が最も近い固有空間データAを選び、動体Bの動作を認識する。基本動作ごとの各フレーム画像データAは、動体Aに基本動作を行わせ、基本動作を行う動体Aを複数の画像入力手段を用いて多方向から撮影し、画像入力手段ごとに取得した連続する複数のフレーム画像にそれぞれ重みをつけた後、重ね合わせることで作成される圧縮画像から得る。 Patent Literature 1 describes a motion recognition method of a moving object for a robot to recognize the posture, motion, or behavior of a person. In the motion recognition method described above, eigenspace data A in which frame image data A for each basic motion of a moving body A are displayed as dots is created in advance and stored in a database, and frame image data B of a target moving body B is displayed as dots. The eigenspace data B and the eigenspace data A for each basic motion are compared, and the eigenspace data A having the closest distance from the eigenspace data B is selected to recognize the motion of the moving body B. Each frame image data A for each basic motion is obtained by making the moving body A perform the basic motion, photographing the moving body A performing the basic motion from multiple directions using a plurality of image input means, and acquiring each image input means. It is obtained from a compressed image created by superimposing a plurality of frame images after each weighting.

特許文献2には、人の身振りや手振りを利用したユーザインタフェースにおいて手の形状および動作を認識する動作認識システムに関して記載されている。動作認識システムは、特定の対象の画像が含まれている時系列画像データを処理することにより対象の形状および動作を認識し、時系列画像データから動きのある領域を抽出し、時系列画像データから対象を特徴づける色を含む領域を抽出し、動きのある領域で、かつ対象を特徴づける色を含む領域となる領域を対象領域として抽出する。 Patent Literature 2 describes a motion recognition system that recognizes the shape and motion of a hand in a user interface that uses human gestures and gestures. A motion recognition system recognizes the shape and motion of a target by processing time-series image data containing images of a specific target, extracts regions with motion from the time-series image data, and extracts the time-series image data. An area containing a color that characterizes the object is extracted from the image, and an area that is a moving area and contains a color that characterizes the object is extracted as an object area.

非特許文献1には、センサやカメラを活用した様々な行動認識技術について記載されている。非特許文献2には、学習データに出現していないデータのラベルを予測する「Zero
Shot Learning」を用いて動作認識を行うことが記載されている。
Non-Patent Document 1 describes various behavior recognition techniques that utilize sensors and cameras. In Non-Patent Document 2, "Zero
It describes that motion recognition is performed using "Shot Learning".

特開2009-176059号公報JP 2009-176059 A 特開2001-16606号公報Japanese Patent Application Laid-Open No. 2001-16606

Michalis Vrigkas,Christophoros Nikou,Ioannis A Kakadiaris; Review of Human Activity Recognition Methods;Frontiers in Robotics and AI,16 November 2015Michalis Vrigkas,Christophoros Nikou,Ioannis A Kakadiaris; Review of Human Activity Recognition Methods;Frontiers in Robotics and AI,16 November 2015 Kun Liu, Wu Liu, Huadong Ma, Wenbing Huang, Xiongxiong Dong; Generalized Zero-Shot Learning for Action Recognition with Web-Scale Video Data; Submitted on 20 October 2017; Cornell UniversityKun Liu, Wu Liu, Huadong Ma, Wenbing Huang, Xiongxiong Dong; Generalized Zero-Shot Learning for Action Recognition with Web-Scale Video Data; Submitted on 20 October 2017; Cornell University

製品の製造現場においては、品質管理や作業者の安全確保等を目的として作業者の動作を認識することにより作業者が正しい作業手順に従って作業しているか否かを監視する仕組みの導入が進められている。昨今では機械学習を利用した技術が注目されており、例えば一般公開されているデータベース(「UCF101- Action Recognition Data Set」
等)を用いた動作認識技術について研究開発が活発に行われている。
At product manufacturing sites, a mechanism has been introduced to monitor whether workers are following correct work procedures by recognizing the actions of workers for the purpose of quality control and ensuring the safety of workers. ing. Recently, technology using machine learning is attracting attention. For example, a publicly available database ("UCF101-Action Recognition Data Set
etc.) are being actively researched and developed.

ところで、作業者が行う作業は現場毎に異なるため、動作認識技術を利用した作業監視
の仕組みを現場に導入する際は、現場毎に作業者が行う様々な作業についてデータを収集する必要がある。また上記のようなデータベースを用いる場合でも、登録されていない作業については現場毎にデータを収集する必要がある。
By the way, since the work performed by workers differs from site to site, it is necessary to collect data on the various tasks performed by workers at each site when introducing a work monitoring system that uses motion recognition technology. . Moreover, even when using a database such as the one described above, it is necessary to collect data for each work site for unregistered work.

例えば、特許文献1に記載の技術は、予め基本動作ごとのフレーム画像で固有空間データを生成し、固有空間が持つ動作の特徴から距離を比較して動作認識を行うものであり、認識対象となる基本動作について事前に大量のデータを用意しておく必要があり、導入時に現場の作業者に与える負荷が大きい。 For example, the technique described in Patent Document 1 generates eigenspace data in advance from frame images for each basic motion, and performs motion recognition by comparing distances from motion features of the eigenspace. It is necessary to prepare a large amount of data in advance regarding basic operations, which places a heavy burden on on-site workers at the time of introduction.

一方、特許文献2に記載の技術は、時系列画像データを用いて動き領域と動作認識対象を特徴づける色を含む領域とに基づき対象領域を抽出し、形状を解析することにより動作認識を行うものであり、事前にデータを必要としない方式である。しかし同技術では形状に基づき動作を認識するため、作業している手の位置や周辺の情報については正確に認識することができない。 On the other hand, the technique described in Patent Document 2 uses time-series image data to extract target regions based on motion regions and regions containing colors that characterize motion recognition targets, and performs motion recognition by analyzing the shapes. It is a method that does not require data in advance. However, since this technology recognizes motions based on shape, it is not possible to accurately recognize information about the position of the working hand and its surroundings.

また非特許文献2に記載の技術では、学習データに出現していないデータのラベルを予測するが、認識対象を予測するのに必要なデータは現場で用意する必要がある。 In the technique described in Non-Patent Document 2, the label of data that does not appear in the learning data is predicted, but the data necessary for predicting the recognition target must be prepared on site.

本発明はこうした背景に基づきなされたものであり、事前に大量のデータを準備することなく、作業者が行う作業を精度よく監視することが可能な、作業監視装置、及び作業監視方法を提供することを目的とする。 The present invention has been made based on such a background, and provides a work monitoring device and a work monitoring method capable of accurately monitoring work performed by a worker without preparing a large amount of data in advance. for the purpose.

上記目的を達成するための本発明の一つは、作業監視装置であって、プロセッサ及びメモリを有する情報処理装置を用いて構成され、作業者が作業を行っている様子を映した画像データを取得する画像データ取得部と、前記画像データに映っている複数の物体について前記画像データにおける夫々の位置を示す情報を取得する物体位置検出部と、前記画像データに設定された領域である一つ以上の判定対象領域の夫々に前記複数の物体の夫々の前記位置が含まれているか否かを判定した結果を示す情報を含んだ判定結果表を生成する判定結果表生成部と、前記画像データに基づき生成される前記判定結果表と当該画像データにおける作業を示す情報である作業内容情報とを対応づけた情報である判定結果パターン/作業内容対応情報を記憶する記憶部と、新たに取得された前記画像データについて前記判定結果表を生成し、生成した前記判定結果表と前記判定結果パターン/作業内容対応情報とを対照することにより前記作業者が行っている作業を特定する監視処理部と、を備え、前記判定結果表は、前記物体の前記位置が前記画像データに含まれているか否かを示す情報を更に含む。
One of the present inventions for achieving the above object is a work monitoring device, which is constructed using an information processing device having a processor and a memory, and which displays image data showing a worker performing work. an image data acquisition unit for acquiring; an object position detection unit for acquiring information indicating respective positions in the image data of a plurality of objects appearing in the image data; and one area set in the image data. a determination result table generating unit for generating a determination result table containing information indicating a result of determining whether or not the position of each of the plurality of objects is included in each of the determination target regions; and the image data. a storage unit that stores determination result pattern/work content correspondence information that is information in which the determination result table generated based on the above is associated with work content information that is information indicating work in the image data; a monitoring processing unit that generates the determination result table for the image data obtained and identifies the work performed by the worker by comparing the generated determination result table with the determination result pattern/work content correspondence information; , wherein the determination result table further includes information indicating whether or not the position of the object is included in the image data.

その他、本願が開示する課題、及びその解決方法は、発明を実施するための形態の欄、及び図面により明らかにされる。 In addition, the problems disclosed by the present application and their solutions will be clarified by the description of the mode for carrying out the invention and the drawings.

本発明によれば、事前に大量のデータを準備することなく、作業者が行う作業を精度よく監視することができる。 ADVANTAGE OF THE INVENTION According to this invention, the work which a worker performs can be monitored accurately, without preparing a large amount of data in advance.

作業監視システムの概略的な構成を示す図である。1 is a diagram showing a schematic configuration of a work monitoring system; FIG. 作業監視装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of a work monitoring apparatus. 作業監視装置が備える主な機能を示す図である。It is a figure which shows the main functions with which a work monitoring apparatus is equipped. (a)は画像データの例であり、(b)は画像データに映っているマーカの位置と判定対象領域を抽出して描いた図であり、(c)は画像データに基づき生成される判定結果表である。(a) is an example of image data, (b) is a drawing drawn by extracting the position of a marker shown in the image data and a determination target area, and (c) is a determination generated based on the image data. It is a result table. (a)~(c)はいずれも画像データと当該画像データに対応する判定結果パターンの例である。(a) to (c) are examples of image data and determination result patterns corresponding to the image data. メイン処理を説明するフローチャートである。4 is a flowchart for explaining main processing; マーカ色設定処理を説明するフローチャートである。9 is a flowchart for explaining marker color setting processing; 判定対象領域設定処理を説明するフローチャートである。9 is a flowchart for explaining determination target area setting processing; 対応情報登録処理を説明するフローチャートである。9 is a flowchart for explaining correspondence information registration processing; 判定結果表生成処理を説明するフローチャートである。10 is a flowchart for explaining determination result table generation processing; マーカ位置検出処理を説明するフローチャートである。9 is a flowchart for explaining marker position detection processing; 作業監視処理を説明するフローチャートである。4 is a flowchart for explaining work monitoring processing; 判定結果表の他の例である。It is another example of the determination result table. 第2実施形態の作業監視装置が備える主な機能を示す図である。It is a figure which shows the main functions with which the work monitoring apparatus of 2nd Embodiment is provided. 第2実施形態の作業監視処理を説明するフローチャートである。10 is a flowchart for explaining work monitoring processing according to the second embodiment; 第3実施形態の作業監視装置が備える主な機能を示す図である。It is a figure which shows the main functions with which the work monitoring apparatus of 3rd Embodiment is provided. 第3実施形態の作業監視処理を説明するフローチャートである。10 is a flowchart for explaining work monitoring processing according to the third embodiment; 第4実施形態の作業監視装置が備える主な機能を示す図である。It is a figure which shows the main functions with which the work monitoring apparatus of 4th Embodiment is provided. 第4実施形態の作業監視処理を説明するフローチャートである。FIG. 14 is a flowchart for explaining work monitoring processing according to the fourth embodiment; FIG. 解析対象とする期間の例を示す図である。It is a figure which shows the example of the period used as analysis object.

以下、実施形態につき図面を参照しつつ説明する。以下の説明において、同一のまたは類似する構成に同一の符号を付して重複した説明を省略することがある。また以下の説明において、同種の構成を区別する必要がある場合、構成を総称する符号の後に括弧書きで識別子(数字、アルファベット等)を表記することがある。 Embodiments will be described below with reference to the drawings. In the following description, the same reference numerals may be given to the same or similar configurations, and redundant description may be omitted. Further, in the following description, when it is necessary to distinguish the same type of configuration, an identifier (number, alphabet, etc.) may be written in parentheses after a symbol that generically refers to the configuration.

[第1実施形態]
図1に第1実施形態として説明する作業監視システム1の概略的な構成を示している。同図に示すように、作業監視システム1は、画像取得装置3、各種センサ4、及び情報処理装置である作業監視装置100を含む。画像取得装置3、各種センサ4、及び作業監視装置100は、有線又は無線の通信手段5を介して通信可能に接続されている。通信手段5の構成は必ずしも限定されないが、例えば、USB(Universal Serial Bus)やRS-232C等の各種通信規格に準拠した通信手段、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット、専用線等である。
[First embodiment]
FIG. 1 shows a schematic configuration of a work monitoring system 1 described as a first embodiment. As shown in the figure, the work monitoring system 1 includes an image acquisition device 3, various sensors 4, and a work monitoring device 100 which is an information processing device. The image acquisition device 3 , various sensors 4 , and work monitoring device 100 are communicably connected via wired or wireless communication means 5 . The configuration of the communication means 5 is not necessarily limited. For example, a dedicated line.

画像取得装置3(撮影装置)は、作業者2や作業者2の周囲を映した画像データを取得する装置であり、例えば、動画や静止画の画像データを取得(撮影)するカメラ(デジタルカメラ(RGBカメラ)、赤外線カメラ、サーモグラフィカメラ、タイムオブフライト(TOF: Time Of Flight)カメラ、ステレオカメラ等)である。 The image acquisition device 3 (photographing device) is a device that acquires image data showing the worker 2 and the surroundings of the worker 2. For example, the image acquisition device 3 is a camera (digital camera) that acquires (photographs) image data of moving images and still images (RGB camera), infrared camera, thermography camera, Time Of Flight (TOF) camera, stereo camera, etc.).

各種センサ4は、作業者2が作業を行う作業環境に設けられ、作業者2や作業環境についての物理的な情報を出力する。各種センサ4は、例えば、動体検知センサ、人感センサ、温度センサ、湿度センサ、加速度センサ、速度センサ、音響センサ(マイクロホン)、超音波センサ、振動センサ、ミリ波レーダ、レーザレーダ(LIDAR: Laser Imaging Detection and Ranging)、赤外線深度センサである。 Various sensors 4 are provided in the work environment where the worker 2 works, and output physical information about the worker 2 and the work environment. Various sensors 4 include, for example, a moving body detection sensor, a human sensor, a temperature sensor, a humidity sensor, an acceleration sensor, a speed sensor, an acoustic sensor (microphone), an ultrasonic sensor, a vibration sensor, a millimeter wave radar, a laser radar (LIDAR: Laser Imaging Detection and Ranging), an infrared depth sensor.

作業監視装置100は、画像取得装置3によって取得される画像データに基づき作業者2の作業の監視に関する処理を行う。 The work monitoring device 100 performs processing related to monitoring work of the worker 2 based on image data acquired by the image acquisition device 3 .

図2に作業監視装置100のハードウェア構成例を示している。作業監視装置100は、情報処理装置(コンピュータ)であり、プロセッサ11、主記憶装置12、補助記憶装置13、入力装置14、出力装置15、及び通信装置16を備える。 FIG. 2 shows a hardware configuration example of the work monitoring device 100. As shown in FIG. The work monitoring device 100 is an information processing device (computer) and includes a processor 11 , a main storage device 12 , an auxiliary storage device 13 , an input device 14 , an output device 15 and a communication device 16 .

プロセッサ11は、例えば、演算処理を行う装置であり、CPU(Central Processing
Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、AI(Artificial Intelligence)チップ等である。主記憶装置12は、プログラムやデー
タを記憶する装置であり、例えば、ROM(Read Only Memory)(SRAM(Static Random Access Memory)、NVRAM(Non Volatile RAM)、マスクROM(Mask Read Only Memory)、PROM(Programmable ROM)等)、RAM(Random Access Memory)(DRAM(Dynamic Random Access Memory)等)等である。補助記憶装置13は、ハードディスクドライブ(Hard Disk Drive)、フラッシュメモリ(Flash Memory)、SSD(Solid State Drive)、光学式記憶装置(CD(Compact Disc)、DVD(Digital Versatile
Disc)等)等である。補助記憶装置13に格納されているプログラムやデータは、主記憶装置12に随時読み込まれる。
The processor 11 is, for example, a device that performs arithmetic processing, and is a CPU (Central Processing
Unit), MPU (Micro Processing Unit), GPU (Graphics Processing Unit), AI (Artificial Intelligence) chip, and the like. The main storage device 12 is a device for storing programs and data, and includes, for example, ROM (Read Only Memory) (SRAM (Static Random Access Memory), NVRAM (Non Volatile RAM), Mask ROM (Mask Read Only Memory), PROM (Programmable ROM), etc.), RAM (Random Access Memory) (DRAM (Dynamic Random Access Memory), etc.), and the like. The auxiliary storage device 13 includes a hard disk drive, a flash memory, an SSD (Solid State Drive), an optical storage device (CD (Compact Disc), DVD (Digital Versatile
Disc), etc.). Programs and data stored in the auxiliary storage device 13 are read into the main storage device 12 as needed.

入力装置14は、ユーザから情報を受付けるユーザインタフェースであり、例えば、キーボード、マウス、カードリーダ、タッチパネル等である。出力装置15は、各種の情報を出力(表示出力、音声出力、印字出力等)するユーザインタフェースであり、例えば、各種情報を可視化する表示装置(LCD(Liquid Crystal Display)、グラフィックカード等)や音声出力装置(スピーカ)、印字装置等である。 The input device 14 is a user interface that receives information from a user, such as a keyboard, mouse, card reader, and touch panel. The output device 15 is a user interface that outputs various types of information (display output, audio output, print output, etc.). These include an output device (speaker), a printing device, and the like.

通信装置16は、通信手段5を介して他の装置と通信する通信インタフェースであり、例えば、NIC(Network Interface Card)、無線通信モジュール、USB(Universal Serial Interface)モジュール、シリアル通信モジュール等である。通信装置16は、通信可能に接続する他の装置から情報を受信する入力装置として機能することもできる。また通信装置16は、通信可能に接続する他の装置に情報を送信する出力装置として機能することもできる。作業監視装置100は、通信装置16により通信手段5を介して画像取得装置3や各種センサ4と通信する。 The communication device 16 is a communication interface that communicates with other devices via the communication means 5, and includes, for example, a NIC (Network Interface Card), a wireless communication module, a USB (Universal Serial Interface) module, a serial communication module, and the like. Communication device 16 may also function as an input device to receive information from other devices with which it is communicatively connected. The communication device 16 can also function as an output device that transmits information to other devices with which it is communicatively connected. The work monitoring device 100 communicates with the image acquisition device 3 and various sensors 4 via the communication means 5 by the communication device 16 .

作業監視装置100が備える各種の機能は、プロセッサ11が、主記憶装置12に格納されているプログラムを読み出して実行することにより、もしくは、作業監視装置100を構成しているハードウェア(FPGA、ASIC、AIチップ等)により実現される。 Various functions of the work monitoring device 100 are realized by the processor 11 reading and executing a program stored in the main storage device 12, or by hardware (FPGA, ASIC , AI chip, etc.).

図3に作業監視装置100が備える主な機能を示している。同図に示すように、作業監視装置100は、記憶部110、データ取得部120、準備設定処理部130、判定結果表生成部140、及び監視処理部150を備える。尚、作業監視装置100は、上記の機能に加えて、例えば、オペレーティングシステム、デバイスドライバ、ファイルシステム、DBMS(DataBase Management System)等の機能を更に備えていてもよい。 FIG. 3 shows main functions of the work monitoring device 100. As shown in FIG. As shown in the figure, the work monitoring device 100 includes a storage unit 110 , a data acquisition unit 120 , a preparation setting processing unit 130 , a determination result table generation unit 140 and a monitoring processing unit 150 . In addition to the functions described above, the work monitoring apparatus 100 may further include functions such as an operating system, a device driver, a file system, and a DBMS (DataBase Management System).

上記の機能のうち、記憶部110は、画像データ111、センサデータ112、マーカ色データ113、判定対象領域データ114、判定結果表115、及び判定結果パターン/作業内容対応情報116を記憶する。尚、記憶部110は、例えば、DBMSが提供するデータベースのテーブルや、ファイルシステムが提供するファイルとしてこれらの情報(データ)を記憶する。 Among the functions described above, the storage unit 110 stores image data 111 , sensor data 112 , marker color data 113 , determination target area data 114 , determination result table 115 , and determination result pattern/work content correspondence information 116 . The storage unit 110 stores such information (data) as, for example, a table of a database provided by a DBMS or a file provided by a file system.

画像データ111は、画像取得装置3から取得されるデータであり、例えば、画像取得装置3から送られてくる、静止画データや動画データを構成するフレームのデータである。センサデータ112は、各種センサ4から取得されるデータである。尚、マーカ色データ113、判定対象領域データ114、判定結果表115、及び判定結果パターン/作業内容対応情報116の詳細については後述する。 The image data 111 is data acquired from the image acquisition device 3, and is, for example, frame data that is transmitted from the image acquisition device 3 and constitutes still image data or moving image data. The sensor data 112 is data obtained from various sensors 4 . Details of the marker color data 113, the determination target area data 114, the determination result table 115, and the determination result pattern/work content correspondence information 116 will be described later.

データ取得部120は、他の装置から送られてくるデータを取得(受信)する。同図に
示すように、データ取得部120は、画像データ取得部121とセンサデータ取得部122を含む。このうち画像データ取得部121は、画像取得装置3から画像データ111を取得する。センサデータ取得部122は、各種センサ4からセンサデータ112を取得する。
The data acquisition unit 120 acquires (receives) data sent from another device. As shown in the figure, the data acquisition section 120 includes an image data acquisition section 121 and a sensor data acquisition section 122 . Among these, the image data acquisition unit 121 acquires the image data 111 from the image acquisition device 3 . The sensor data acquisition unit 122 acquires sensor data 112 from various sensors 4 .

準備設定処理部130は、作業監視装置100が作業者2の作業を監視する際に用いる各種の情報の設定に関する処理を行う。同図に示すように、準備設定処理部130は、マーカ色設定処理部131、判定対象領域設定処理部132、及び対応情報設定処理部133を含む。 The preparation setting processing unit 130 performs processing related to setting of various information used when the work monitoring device 100 monitors the work of the worker 2 . As shown in the figure, the preparation setting processing section 130 includes a marker color setting processing section 131 , a determination target area setting processing section 132 , and a correspondence information setting processing section 133 .

このうちマーカ色設定処理部131は、画像データ111に基づき、作業者2や物体の位置を認識するために、作業者2の体や作業対象物、作業に用いる道具等に設けられている表示(以下、「マーカ」と称する。)の色に関する設定を行う。例えば、マーカ色設定処理部131は、画像データ111においてマーカが映っている領域の色データ(例えばRGB値で表現されたデータ)を取得し、当該マーカの識別子(以下、「マーカID」と称する。)と当該色データとを対応づけた情報を含むデータであるマーカ色データ113を生成する。 Among these, the marker color setting processing unit 131 is based on the image data 111, in order to recognize the positions of the worker 2 and objects, the display provided on the body of the worker 2, the work target, the tools used for work, etc. (hereinafter referred to as "marker"). For example, the marker color setting processing unit 131 acquires color data (for example, data represented by RGB values) of an area in which a marker is shown in the image data 111, and an identifier of the marker (hereinafter referred to as a “marker ID”). .) and the color data is generated.

判定対象領域設定処理部132は、画像データ111に対する領域(以下、「判定対象領域」と称する。)の設定に関する処理を行う。判定対象領域設定処理部132は、例えば、ユーザから判定対象領域の設定を受け付ける。また判定対象領域設定処理部132は、自動的に画像データに判定対象領域を設定する。判定対象領域設定処理部132は、設定した判定対象領域を特定する情報を含んだデータである判定対象領域データ114を生成する。判定対象領域データ114は、例えば、判定対象領域の識別子(以下、「判定対象領域ID」と称する。)と画像データの座標系で領域を示した情報とを対応づけた情報を含む。 The determination target region setting processing unit 132 performs processing related to setting of a region for the image data 111 (hereinafter referred to as “determination target region”). The determination target area setting processing unit 132 receives, for example, the setting of the determination target area from the user. Further, the determination target area setting processing unit 132 automatically sets the determination target area in the image data. The determination target area setting processing unit 132 generates determination target area data 114 that is data including information specifying the set determination target area. The determination target area data 114 includes, for example, information that associates an identifier of the determination target area (hereinafter referred to as "determination target area ID") with information indicating the area in the coordinate system of the image data.

対応情報設定処理部133は、マーカが設けられているオブジェクト(作業者2の体の所定部位、作業対象、作業者2が使う道具等の作業に関する物体)が各判定対象領域内に存在する(映っている)か否かを示す情報を含むデータである判定結果表115のパターン(以下、「判定結果パターン」と称する。)と、判定結果パターンに対応する作業内容を特定する情報(以下、「作業内容情報」と称する。)と、を対応づけた情報である判定結果パターン/作業内容対応情報116の設定に関する処理を行う。尚、作業内容情報は、判定結果パターンの作業が、正常な作業についてのものであるか異常な作業についてのものであるかを示す情報(以下、「正常/異常区分」と称する。)を含む。判定結果表115の詳細については後述する。 The correspondence information setting processing unit 133 determines that objects with markers (predetermined parts of the body of the worker 2, work objects, objects related to work such as tools used by the worker 2) exist in each determination target region ( The pattern of the judgment result table 115 (hereinafter referred to as "judgment result pattern"), which is data including information indicating whether or not the (referred to as "work content information"), and processing related to the setting of the determination result pattern/work content correspondence information 116, which is information associated with. The work content information includes information indicating whether the work of the determination result pattern is normal work or abnormal work (hereinafter referred to as "normal/abnormal division"). . Details of the determination result table 115 will be described later.

判定結果表生成部140は、画像データ111に基づき判定結果表115を生成する。同図に示すように、判定結果表生成部140は、マーカ位置検出処理部141と判定結果表生成処理部142を含む。 The determination result table generator 140 generates the determination result table 115 based on the image data 111 . As shown in the figure, the determination result table generation unit 140 includes a marker position detection processing unit 141 and a determination result table generation processing unit 142 .

このうちマーカ位置検出処理部141は、マーカ色データ113を用いて画像データ111におけるマーカが映っている位置(本例ではマーカが移っている領域の重心位置とする)を検出する。 Among them, the marker position detection processing unit 141 uses the marker color data 113 to detect the position where the marker appears in the image data 111 (in this example, the position of the center of gravity of the area where the marker moves).

判定結果表生成処理部142は、検出したマーカの位置と判定対象領域データ114とを対照することにより判定結果表115を生成する。 The determination result table generation processing unit 142 generates the determination result table 115 by comparing the positions of the detected markers and the determination target area data 114 .

図4(a)に画像データ111の例を示す。例示する画像データ111には、オブジェクト41(1)~41(4)の夫々に設けられている複数のマーカ42(1)~42(4
)が映っている。また判定対象領域43(1)~(3)が設定されている。
An example of the image data 111 is shown in FIG. The illustrated image data 111 includes a plurality of markers 42(1) to 42(4) provided on objects 41(1) to 41(4), respectively.
) is shown. Determination target areas 43(1) to 43(3) are also set.

図4(b)は、図4(a)に示す画像データ111に映っているマーカ42(1)~(4)の位置と判定対象領域43(1)~(3)を抽出して描いた図である。本例では判定対象領域43(1)~(3)は矩形枠としているが、他の形状としてもよい。 FIG. 4(b) is drawn by extracting the positions of the markers 42(1)-(4) and the determination target regions 43(1)-(3) appearing in the image data 111 shown in FIG. 4(a). It is a diagram. Although the determination target areas 43(1) to 43(3) are rectangular frames in this example, they may be of other shapes.

図4(c)は、図4(a)に示した画像データ111に基づき生成される判定結果表115である。同図に示すように、判定結果表115は、行方向にマーカIDを、列方向に判定対象領域IDを、夫々設定した二次元表(テーブル)である。また同図に示すように、列方向には、さらにマーカの可視/不可視(画像データ111に映っているか否か)を示す項目(以下、「Visible」と称する。)が設けられている。尚、前述した判定結果パ
ターンも判定結果表115と同様の構成を有する。
FIG. 4(c) is a judgment result table 115 generated based on the image data 111 shown in FIG. 4(a). As shown in the figure, the determination result table 115 is a two-dimensional table in which marker IDs are set in the row direction and determination target area IDs are set in the column direction. Further, as shown in the figure, an item (hereinafter referred to as "Visible") indicating whether the marker is visible or invisible (whether or not it is reflected in the image data 111) is provided in the column direction. Note that the determination result pattern described above also has the same configuration as the determination result table 115 .

本例の場合、例えば、マーカIDが「Object 1」のオブジェクトについては、画像データ111に映っているので「Visible」の値は「True」に設定され、判定対象領域IDが
「Area 1」の領域内であるので当該項目は「True」に設定され、判定対象領域IDが「Area 2」の領域外であるので当該項目は「False」に設定され、判定対象領域IDが「Area 3」の領域外であるので当該項目は「False」に設定されている。
In the case of this example, for example, for an object with a marker ID of "Object 1", since it appears in the image data 111, the value of "Visible" is set to "True", and the determination target area ID is "Area 1". Since it is inside the area, the item is set to "True", and since it is outside the judgment target area ID "Area 2", the item is set to "False", and the judgment target area ID is "Area 3". Since it is outside the area, the item is set to "False".

またマーカIDが「Object 2」のオブジェクトについては、画像データ111に映っているので「Visible」の値は「True」に設定され、判定対象領域IDが「Area 1」の判定
対象領域内であるので当該項目は「True」に設定され、判定対象領域IDが「Area 2」の判定対象領域内であるので当該項目は「True」に設定され、判定対象領域IDが「Area 3」の判定対象領域外であるので当該項目は「False」に設定されている。
As for the object whose marker ID is "Object 2", the value of "Visible" is set to "True" because it is reflected in the image data 111, and it is within the determination target area whose determination target area ID is "Area 1". Therefore, the item is set to "True", and since it is in the determination target area with the determination target area ID of "Area 2", the item is set to "True" and the determination target with the determination target area ID of "Area 3" Since it is outside the area, the item is set to "False".

またマーカIDが「Object 3」のオブジェクトについては、画像データ111に映っているので「Visible」の値は「True」に設定され、判定対象領域IDが「Area 1」の判定
対象領域外であるので当該項目は「False」に設定され、判定対象領域IDが「Area 2」
の判定対象領域外であるので当該項目は「False」に設定され、判定対象領域IDが「Area 3」の判定対象領域内であるので当該項目は「True」に設定されている。
As for the object with the marker ID "Object 3", the value of "Visible" is set to "True" because it is reflected in the image data 111, and it is outside the determination target area with the determination target area ID "Area 1". Therefore, the item is set to "False" and the judgment target area ID is "Area 2"
This item is set to "False" because it is outside the determination target area of "Area 3", and the item is set to "True" because it is within the determination target area whose determination target area ID is "Area 3".

またマーカIDが「Object 4」のオブジェクトについては、画像データ111に映っているので「Visible」の値は「True」に設定され、判定対象領域IDが「Area 1」の判定
対象領域外であるので当該項目は「False」に設定され、判定対象領域IDが「Area 2」
の判定対象領域外であるので当該項目は「False」に設定され、判定対象領域IDが「Area 3」の判定対象領域外であるので当該項目は「False」に設定されている。
As for the object whose marker ID is "Object 4", the value of "Visible" is set to "True" because it appears in the image data 111, and it is outside the determination target area whose determination target area ID is "Area 1". Therefore, the item is set to "False" and the judgment target area ID is "Area 2"
, the item is set to "False" because it is outside the determination target area of "Area 3".

またマーカIDが「Object 5」のオブジェクトについては、画像データ111に映っていないため、「Visible」の値は「False」に設定され、判定対象領域IDが「Area 1」、「Area 2」、「Area 3」の各項目の値はいずれも「False」に設定されている。 For the object with the marker ID "Object 5", since it is not shown in the image data 111, the value of "Visible" is set to "False", and the determination target area IDs are "Area 1", "Area 2", The value of each item of "Area 3" is set to "False".

尚、以上に示した判定結果表115の内容は、作業者2が行う個々の作業の特徴を表している。そのため、作業者2が行う個々の作業(正常な作業または異常な作業)について取得した画像データ111に基づく判定結果表115を判定結果パターンとして事前に用意しておくことで、新たに作業者2の作業を映した画像データ111に基づき作業者2が行っている作業を容易かつ精度よく特定することができる。 The content of the determination result table 115 shown above represents the characteristics of each work performed by the worker 2 . Therefore, by preparing in advance a judgment result table 115 based on the image data 111 acquired for each work (normal work or abnormal work) performed by the worker 2 as a judgment result pattern, the worker 2 can newly The work performed by the worker 2 can be specified easily and accurately based on the image data 111 showing the work.

図5に、作業者2が行う個々の作業について生成した判定結果パターン(判定結果表115)の例(同図では(a)~(c)で示す3例)を示す。尚、判定結果表115は「Visible」の項目を有しており、画像データ111にマーカが映っているか否かについての
情報も含むので、作業者2の作業を高い精度で特定することができる。また画像データ111に映っているマーカの位置の特定は情報処理装置を用いて自動的に行うことができるので、ユーザは画像データ111に判定対象領域を設定しておくだけで容易に判定結果表115を生成することができる。このように、本実施形態の作業監視装置100によれば、異なる作業が行われる個々の現場において作業者2の作業を監視する仕組みを容易に実現することができる。
FIG. 5 shows examples of judgment result patterns (judgment result table 115) generated for individual works performed by the worker 2 (three examples indicated by (a) to (c) in FIG. 5). Note that the determination result table 115 has an item of "Visible" and includes information as to whether or not the marker is shown in the image data 111, so the work of the worker 2 can be specified with high accuracy. . Further, since the positions of the markers appearing in the image data 111 can be automatically specified by using the information processing device, the user simply sets the determination target area in the image data 111, and the determination result table can be easily obtained. 115 can be generated. As described above, according to the work monitoring device 100 of the present embodiment, it is possible to easily realize a mechanism for monitoring the work of the worker 2 at individual sites where different works are performed.

図3に戻り、監視処理部150は、画像取得装置3から送られてくる画像データ111に基づき作業者2の作業を監視する。同図に示すように、監視処理部150は、判定結果表取得部151と異常有無判定処理部152とを含む。 Returning to FIG. 3 , the monitoring processing unit 150 monitors the work of the worker 2 based on the image data 111 sent from the image acquisition device 3 . As shown in the figure, the monitoring processing unit 150 includes a determination result table acquisition unit 151 and an abnormality presence/absence determination processing unit 152 .

このうち判定結果表取得部151は、判定結果表生成部140から、画像データ111に基づき生成される判定結果表115を取得する。 Of these, the determination result table acquisition unit 151 acquires the determination result table 115 generated based on the image data 111 from the determination result table generation unit 140 .

異常有無判定処理部152は、判定結果表115に基づき、作業者2の作業が正常か異常かを判定して判定結果を出力する。異常有無判定処理部152は、例えば、画像データ111に基づき生成した判定結果表115が、判定結果パターン/作業内容対応情報116に登録されている正常/異常区分が「正常」に設定されている判定結果パターンのいずれかと一致する場合は作業者2の作業は正常であると判定し、いずれにも一致しない場合は作業者2の作業は異常と判定する。また異常有無判定処理部152は、例えば、画像データ111に基づき生成した判定結果表115が、判定結果パターン/作業内容対応情報116に登録されている正常/異常区分が「異常」の判定結果パターンのいずれかと一致する場合は作業者2の作業は異常であると判定し、いずれにも一致しない場合は作業者2の作業は正常と判定する。尚、判定結果表115と判定結果パターンの一致は必ずしも完全一致を意味せず、例えば、不一致の度合いが予め設定した許容範囲内であれば一致と判定するようにしてもよい。 The abnormality presence/absence determination processing unit 152 determines whether the work of the worker 2 is normal or abnormal based on the determination result table 115, and outputs the determination result. For example, the abnormality presence/absence determination processing unit 152 determines that the determination result table 115 generated based on the image data 111 has the normal/abnormal classification registered in the determination result pattern/work content correspondence information 116 set to "normal". If it matches with any of the determination result patterns, it is determined that the work of the worker 2 is normal, and if it does not match any pattern, it is determined that the work of the worker 2 is abnormal. Further, the abnormality presence/absence determination processing unit 152, for example, determines whether the determination result table 115 generated based on the image data 111 is a determination result pattern whose normal/abnormal classification is "abnormal" registered in the determination result pattern/work content correspondence information 116. If it matches any one of them, it is determined that the work of the worker 2 is abnormal, and if it does not match any of them, it is determined that the work of the worker 2 is normal. Note that matching between the determination result table 115 and the determination result pattern does not necessarily mean complete matching, and for example, matching may be determined if the degree of mismatch is within a preset allowable range.

<処理説明>
続いて、作業監視装置100が行う処理について説明する。尚、以下の説明において、作業監視装置100が作業者2の作業を監視している間、画像取得装置3の撮影範囲は固定されているものとする。また各マーカは夫々異なる色を有するものとする。
<Description of processing>
Next, processing performed by the work monitoring device 100 will be described. In the following description, it is assumed that while the work monitoring device 100 is monitoring the work of the worker 2, the photographing range of the image acquisition device 3 is fixed. It is also assumed that each marker has a different color.

図6は、現場の作業者2の作業の監視に際して作業監視装置100が行う処理(以下、「メイン処理S600」と称する。)を説明するフローチャートである。 FIG. 6 is a flowchart for explaining the processing (hereinafter referred to as "main processing S600") performed by the work monitoring device 100 when monitoring the work of the worker 2 on site.

同図に示すように、まず準備設定処理部130が、作業者2の作業を監視するために必要な情報を設定する処理(マーカ色設定処理S611、判定対象領域設定処理S612、及び対応情報登録処理S613)を行う。これらの各処理の詳細については後述する。 As shown in the figure, the preparation setting processing unit 130 first performs processing for setting information necessary for monitoring the work of the worker 2 (marker color setting processing S611, determination target area setting processing S612, and correspondence information registration). Processing S613) is performed. Details of each of these processes will be described later.

続いて、監視処理部150が、作業者2の作業を監視する処理(作業監視処理S614)を行う。 Subsequently, the monitoring processing unit 150 performs processing for monitoring the work of the worker 2 (work monitoring processing S614).

図7は、図6のマーカ色設定処理S611の詳細を説明するフローチャートである。 FIG. 7 is a flowchart for explaining the details of the marker color setting process S611 in FIG.

同図に示すように、まず画像データ取得部121が、画像取得装置3から画像データ111を取得する(S711)。 As shown in the figure, first, the image data acquisition unit 121 acquires the image data 111 from the image acquisition device 3 (S711).

続いて、マーカ色設定処理部131が、画像データ111に映っているマーカの領域の色データ(RGBデータ)を取得する(S712)。尚、画像データ111に複数のマーカが映っている場合、マーカ色設定処理部131は各マーカの領域の色データを取得する
Subsequently, the marker color setting processing unit 131 acquires the color data (RGB data) of the marker area shown in the image data 111 (S712). When a plurality of markers appear in the image data 111, the marker color setting processing unit 131 acquires color data of each marker area.

続いて、マーカ色設定処理部131は、取得した色データを所定の色空間(HSV(Hue Saturation Value)、HSB(Hue Saturation Brightness)等)のデータに変換する
(S713)。尚、色空間への変換は必ずしも行わなくてもよく、変換を行うか否かは、例えば、要求される監視精度(作業者2の作業が正常か異常かの判定精度)に応じて決定すればよい。またいずれの色空間を選択するかについても同様である。
Subsequently, the marker color setting processing unit 131 converts the acquired color data into data in a predetermined color space (HSV (Hue Saturation Value), HSB (Hue Saturation Brightness), etc.) (S713). Note that the conversion to the color space may not necessarily be performed, and whether or not to perform the conversion may be determined according to the required monitoring accuracy (accuracy in determining whether the work of the worker 2 is normal or abnormal), for example. Just do it. The same applies to which color space is selected.

続いて、マーカ色設定処理部131は、変換後のデータをマーカIDと対応づけてマーカ色データ113として記憶する(S714)。 Subsequently, the marker color setting processing unit 131 stores the converted data as the marker color data 113 in association with the marker ID (S714).

図8は、図6の判定対象領域設定処理S612の詳細を説明するフローチャートである。 FIG. 8 is a flowchart for explaining the details of the determination target area setting process S612 in FIG.

同図に示すように、まず画像データ取得部121が、画像取得装置3から画像データ111を取得する(S811)。 As shown in the figure, first, the image data acquisition unit 121 acquires the image data 111 from the image acquisition device 3 (S811).

続いて、判定対象領域設定処理部132が、取得した画像データ111に判定対象領域を一つ以上設定する(S812)。判定対象領域設定処理部132は、例えば、ユーザとの対話処理により判定対象領域を設定する。尚、ユーザは、例えば、過去の判定対象領域の設定内容と判定精度の関係に基づき、要求される監視精度が確保されるように判定対象領域を適切に設定する。また判定対象領域設定処理部132は、例えば、過去の判定対象領域の設定内容と判定精度の関係に基づき、要求される監視精度が確保されるように自動的に判定対象領域を設定する。 Subsequently, the determination target area setting unit 132 sets one or more determination target areas in the acquired image data 111 (S812). The determination target area setting unit 132 sets the determination target area through interactive processing with the user, for example. It should be noted that the user appropriately sets the determination target area so as to ensure the required monitoring accuracy based on, for example, the relationship between the setting content of the determination target area in the past and the determination accuracy. Further, the determination target area setting processing unit 132 automatically sets the determination target area so as to ensure the required monitoring accuracy, based on the relationship between the setting contents of the determination target area in the past and the determination accuracy, for example.

続いて、判定対象領域設定処理部132は、設定した判定対象領域を判定対象領域データ114として記憶する(S813)。 Subsequently, the determination target area setting unit 132 stores the set determination target area as the determination target area data 114 (S813).

図9は、図6の対応情報登録処理S613の詳細を説明するフローチャートである。 FIG. 9 is a flowchart for explaining the details of the correspondence information registration process S613 of FIG.

同図に示すように、まず画像データ取得部121が、画像取得装置3から画像データ111を取得する(S911)。 As shown in the figure, first, the image data acquisition unit 121 acquires the image data 111 from the image acquisition device 3 (S911).

続いて、対応情報設定処理部133は、取得した画像データ111を判定結果表生成部140に送る。判定結果表生成部140は、送られてきた画像データ111に基づき判定結果表115を取得する処理(以下、「判定結果表生成処理S912」と称する。)を行い、生成した判定結果表115を対応情報設定処理部133に返す。尚、判定結果表生成処理S912の詳細については後述する。 Subsequently, the correspondence information setting processor 133 sends the acquired image data 111 to the determination result table generator 140 . The determination result table generation unit 140 performs a process of acquiring the determination result table 115 based on the sent image data 111 (hereinafter referred to as "determination result table generation process S912"), and generates the generated determination result table 115. Return to the correspondence information setting processing unit 133 . Details of the determination result table generation processing S912 will be described later.

続いて、対応情報設定処理部133は、当該画像データ111についての作業内容情報の入力(設定)をユーザから受け付ける(S913)。 Subsequently, the correspondence information setting processing unit 133 receives input (setting) of work content information for the image data 111 from the user (S913).

続いて、対応情報設定処理部133は、判定結果表生成部140から送られてきた判定結果表115と受け付けた作業内容情報とを対応づけて判定結果パターン/作業内容対応情報154に登録する(S914)。 Subsequently, the correspondence information setting processing unit 133 associates the determination result table 115 sent from the determination result table generation unit 140 with the received work content information and registers them in the determination result pattern/work content correspondence information 154 ( S914).

図10は、図9の判定結果表生成処理S912の詳細を説明するフローチャートである。 FIG. 10 is a flowchart for explaining the details of the determination result table generation processing S912 of FIG.

同図に示すように、まずマーカ位置検出処理部141が、画像データ111に含まれて
いる各マーカの位置を検出する処理(以下、「マーカ位置検出処理S1011」と称する。)を行う。マーカ位置検出処理S1011の詳細については後述する。
As shown in the figure, first, the marker position detection processing unit 141 performs processing for detecting the position of each marker included in the image data 111 (hereinafter referred to as "marker position detection processing S1011"). Details of the marker position detection processing S1011 will be described later.

続いて、判定結果表生成処理部142が、判定対象領域データ114を取得する(S1012)。 Subsequently, the determination result table generation processing unit 142 acquires the determination target region data 114 (S1012).

続いて、判定結果表生成処理部142が、検出したマーカの位置と取得した判定対象領域データ114とを対照して判定結果表115を生成する(S1013)。 Subsequently, the determination result table generation processing unit 142 compares the detected marker positions with the acquired determination target region data 114 to generate the determination result table 115 (S1013).

図11は、図10のマーカ位置検出処理S811の詳細を説明するフローチャートである。 FIG. 11 is a flowchart for explaining details of the marker position detection processing S811 of FIG.

同図に示すように、まずマーカ位置検出処理部141が、マーカ色データ113を取得する(S1111)。尚、複数のマーカのマーカ色データ113が存在する場合、マーカ位置検出処理部141は全てのマーカ色データ113を取得する。 As shown in the figure, first, the marker position detection processing unit 141 acquires the marker color data 113 (S1111). Incidentally, when the marker color data 113 of a plurality of markers exist, the marker position detection processing section 141 acquires all the marker color data 113 .

続いて、マーカ位置検出処理部141は、画像データ111から、マーカ色データ113に対応する領域(一致もしくは類似度が予め設定された閾値以下である領域。以下、「マーカ領域」と称する。)を検出する(S1112)。尚、複数のマーカのマーカ色データ113を取得している場合、各マーカ色データについてマーカ領域を検出する。 Subsequently, the marker position detection processing unit 141 extracts an area corresponding to the marker color data 113 from the image data 111 (an area whose degree of coincidence or similarity is equal to or less than a preset threshold; hereinafter referred to as a "marker area"). is detected (S1112). Note that when the marker color data 113 of a plurality of markers are acquired, the marker area is detected for each marker color data.

続いて、マーカ位置検出処理部141は、例えば公知のノイズ除去技術(画像処理、モルフォロジー演算等)を用いて、検出したマーカ領域からノイズ情報を除去する(S1113)。 Subsequently, the marker position detection processing unit 141 removes noise information from the detected marker area using, for example, known noise removal techniques (image processing, morphology calculation, etc.) (S1113).

続いて、マーカ位置検出処理部141は、マーカ領域の重心位置(重心座標)を特定する(S1114)。 Subsequently, the marker position detection processing unit 141 identifies the center of gravity position (coordinates of the center of gravity) of the marker area (S1114).

続いて、マーカ位置検出処理部141は、同じマーカ色データに対応するマーカ領域が複数存在する否かを調べ、複数存在する場合はそのうちの一つを選択する(S1115)。例えば、マーカ位置検出処理部141は、マーカ領域の色がマーカ色データに最も近いものを選択する。また例えば、マーカ位置検出処理部141は、マーカ領域の画像データ111内の位置が所定範囲内であるか否かに基づきマーカ領域を選択する。 Subsequently, the marker position detection processing unit 141 checks whether or not there are a plurality of marker areas corresponding to the same marker color data, and if there are a plurality of them, selects one of them (S1115). For example, the marker position detection processing unit 141 selects a marker area whose color is closest to the marker color data. Also, for example, the marker position detection processing unit 141 selects a marker area based on whether the position of the marker area in the image data 111 is within a predetermined range.

続いて、マーカ位置検出処理部141は、選択したマーカ領域の重心をマーカ位置として設定する(S1116)。 Subsequently, the marker position detection processing unit 141 sets the center of gravity of the selected marker area as the marker position (S1116).

図12は、図6の作業監視処理S614の詳細を説明するフローチャートである。 FIG. 12 is a flowchart for explaining the details of the work monitoring process S614 of FIG.

同図に示すように、まず画像データ取得部121が、画像取得装置3から一つ以上の画像データ111を取得する(S1211)。この画像データ111は、例えば、作業者2の様子を映した動画データの1フレームの画像である。 As shown in the figure, first, the image data acquisition unit 121 acquires one or more pieces of image data 111 from the image acquisition device 3 (S1211). This image data 111 is, for example, a one-frame image of moving image data showing the state of the worker 2 .

続いて、判定結果表取得部151が、取得した画像データ111を判定結果表生成部140に渡し、判定結果表生成部140から判定結果表115を取得する(S1212)。尚、S1212の処理は、前述した判定結果表生成処理S912と同様であるので説明を省略する。 Subsequently, the determination result table acquisition unit 151 passes the acquired image data 111 to the determination result table generation unit 140, and acquires the determination result table 115 from the determination result table generation unit 140 (S1212). Note that the processing of S1212 is the same as the determination result table generation processing S912 described above, so the description thereof will be omitted.

続いて、異常有無判定処理部152が、取得した判定結果表115に基づき、作業者2の作業が正常か否かを判定し(S1213)、判定結果を出力装置15に出力する(S1
214)。
Subsequently, the abnormality presence/absence determination processing unit 152 determines whether or not the work of the worker 2 is normal based on the obtained determination result table 115 (S1213), and outputs the determination result to the output device 15 (S1
214).

続いて、監視処理部150は、作業者2の作業が終了したか否かを判定する(S1215)。作業が終了していれば(S1215:YES)、監視処理S414は終了し、作業が終了していなければ(S1215:NO)、処理はS1211に戻る。尚、監視処理部150は、作業が終了したか否かを、例えば、ユーザから入力される情報に基づき判定する。 Subsequently, the monitoring processing unit 150 determines whether or not the work of the worker 2 has ended (S1215). If the work has been completed (S1215: YES), the monitoring process S414 ends, and if the work has not been completed (S1215: NO), the process returns to S1211. Note that the monitoring processing unit 150 determines whether or not the work is finished based on information input by the user, for example.

以上、詳細に説明したように、本実施形態の作業監視装置100によれば、判定結果パターンを事前に用意しておくことで、新たに作業者2の作業を映した画像データ111から、作業者2が行っている作業が正常であるか異常であるかを精度よく判定することができる。そのため、個々の現場の作業者2の作業を監視する仕組みを容易に実現することができる。 As described above in detail, according to the work monitoring device 100 of the present embodiment, by preparing the determination result pattern in advance, the work can be detected from the image data 111 newly showing the work of the worker 2. It is possible to accurately determine whether the work performed by the person 2 is normal or abnormal. Therefore, it is possible to easily realize a mechanism for monitoring the work of the worker 2 at each site.

ところで、以上において示した判定結果表115は、マーカに関する情報(マーカの位置が判定対象領域内であるか否かの情報とマーカが画像データ111に映っているか否かの情報)とを含むものであったが、判定結果表115及び判定結果パターンに、更に画像データ111を取得した時に各種センサ4から取得されるセンサデータの情報を含ませ、監視処理部150がセンサデータの値も考慮して判定結果表115と判定結果パターン/作業内容対応情報116とを対照し、作業の特定や作業の異常有無の判定を行うようにしてもよい。判定結果表115及び判定結果パターンにセンサデータの情報を更に含ませることで、個々の作業の特徴をより詳細に表現することができ、作業の判定精度を高めることができる。 By the way, the determination result table 115 shown above includes information on markers (information on whether or not the position of the marker is within the determination target area and information on whether or not the marker appears in the image data 111). However, the determination result table 115 and the determination result pattern further include sensor data information acquired from the various sensors 4 when the image data 111 is acquired, and the monitoring processing unit 150 also considers the sensor data values. The determination result table 115 and the determination result pattern/work content correspondence information 116 may be compared with each other to identify the work and determine whether or not there is an abnormality in the work. By further including sensor data information in the determination result table 115 and the determination result pattern, it is possible to express the characteristics of each work in more detail, and it is possible to improve the determination accuracy of the work.

図13にその場合における判定結果表115の例を示す。例示する判定結果表115は、前述した判定結果表115の各項目に加えて、行方向にセンサの識別子(以下、「センサID」と称する。)が設定される項目(「Sensor 1」、「Sensor 2」)を含む。また列方向にセンサデータの値が設定される項目(「Value 1」、「Value 2」)を含む。 FIG. 13 shows an example of the determination result table 115 in that case. The determination result table 115 illustrated includes, in addition to each item of the determination result table 115 described above, items ("Sensor 1", " Sensor 2”). It also includes items (“Value 1” and “Value 2”) for which sensor data values are set in the column direction.

[第2実施形態]
第2実施形態の作業監視装置100は、第1実施形態における作業者2の作業監視の仕組みを用いて作業者2が作業に要している時間(以下、「作業時間」と称する。)を取得し、取得した作業時間と予め設定した標準作業時間とを比較することにより作業者2が行っている作業を監視(作業が正常か異常かを判定)する。以下、第1実施形態と異なる部分を中心として説明する。
[Second embodiment]
The work monitoring device 100 of the second embodiment uses the mechanism of monitoring the work of the worker 2 in the first embodiment to monitor the time required for the work of the worker 2 (hereinafter referred to as "work time"). The work performed by the worker 2 is monitored (determined whether the work is normal or abnormal) by comparing the acquired work time with a preset standard work time. The following description will focus on portions that differ from the first embodiment.

図14に第2実施形態の作業監視装置100が備える主な機能を示す。同図に示すように、第2実施形態の作業監視装置100の記憶部110は、第1実施形態の作業監視装置100の記憶部110が記憶する情報に加えて、作業者2が行う作業毎の標準作業時間を示す情報を含むデータである作業毎標準作業時間117を記憶する。また第2実施形態の作業監視装置100の異常有無判定処理部152は、標準作業時間と作業時間を比較することにより作業者2が行っている作業が正常か異常かを判定する機能を有する。 FIG. 14 shows main functions of the work monitoring device 100 of the second embodiment. As shown in the figure, the storage unit 110 of the work monitoring device 100 of the second embodiment stores information for each work performed by the worker 2 in addition to the information stored in the storage unit 110 of the work monitoring device 100 of the first embodiment. A standard work time per work 117, which is data including information indicating the standard work time of each work, is stored. Further, the abnormality presence/absence determination processing unit 152 of the work monitoring device 100 of the second embodiment has a function of determining whether the work performed by the worker 2 is normal or abnormal by comparing the standard work time and the work time.

図15は、第2実施形態における作業監視処理S614を説明するフローチャートである。尚、第2実施形態における他の処理(作業監視装置100が行う第1実施形態で説明した他の処理)については第1実施形態と同様であるので説明を省略する。 FIG. 15 is a flowchart for explaining work monitoring processing S614 in the second embodiment. Other processes in the second embodiment (other processes described in the first embodiment performed by the work monitoring device 100) are the same as those in the first embodiment, so descriptions thereof will be omitted.

同図に示すように、まず監視処理部150は、以下の処理で用いる作業変数である「作業時間」と「前回作業」とを初期化する(S1511)。尚、「作業時間」には、作業者2がある作業を行っている際の累積作業時間が設定される。また「前回作業」には、S1
512からのループ処理において前回特定した作業を示す情報(例えば、前述の作業内容情報)が設定される。
As shown in the figure, first, the monitoring processing unit 150 initializes "work time" and "previous work", which are work variables used in the following processes (S1511). In addition, the accumulated work time when the worker 2 is performing a certain work is set in the "work time". Also, in the "previous work", S1
In the loop processing from 512, information indicating the previously specified work (for example, the work content information described above) is set.

続いて、画像データ取得部121が、画像取得装置3から一つ以上の画像データ111を取得する(S1512)。この画像データ111は作業者2の様子を映した動画データの1フレームの画像である。尚、S1512~S1517のループ処理では、動画データの1フレームの画像データ111が時系列に順次選択される。 Subsequently, the image data acquisition unit 121 acquires one or more pieces of image data 111 from the image acquisition device 3 (S1512). This image data 111 is a one-frame image of moving image data showing the state of the worker 2 . Note that in the loop processing of S1512 to S1517, the image data 111 of one frame of the moving image data are sequentially selected in time series.

続いて、判定結果表取得部151が、取得した画像データ111を判定結果表生成部140に渡し、判定結果表生成部140から判定結果表115を取得する(S1513)。尚、S1513の処理は、第1実施形態で説明した判定結果表生成処理S912と同様であるので説明を省略する。 Subsequently, the determination result table acquisition unit 151 passes the acquired image data 111 to the determination result table generation unit 140, and acquires the determination result table 115 from the determination result table generation unit 140 (S1513). Note that the processing of S1513 is the same as the determination result table generation processing S912 described in the first embodiment, so description thereof will be omitted.

続いて、異常有無判定処理部152が、取得した判定結果表115と判定結果パターン/作業内容対応情報116とを対照することにより作業者2が行っている作業を特定する(S1514)。 Subsequently, the abnormality presence/absence determination processing unit 152 identifies the work performed by the worker 2 by comparing the acquired determination result table 115 with the determination result pattern/work content correspondence information 116 (S1514).

続いて、異常有無判定処理部152は、特定した作業が「前回作業」と同じか否かを判定する(S1515)。特定した作業が「前回作業」と同じであれば(S1515:YES)、処理はS1516に進む。尚、1回目のループではS1515の処理はスキップしてS1516の処理に進む。 Subsequently, the abnormality presence/absence determination processing unit 152 determines whether or not the identified work is the same as the “previous work” (S1515). If the specified work is the same as the "previous work" (S1515: YES), the process proceeds to S1516. In the first loop, the process of S1515 is skipped and the process proceeds to S1516.

特定した作業が「前回作業」と異なっていれば(S1515:NO)、処理はS1518に進む。 If the specified work is different from the "previous work" (S1515: NO), the process proceeds to S1518.

S1516では、異常有無判定処理部152は、「作業時間」を更新(例えば、前回更新時から現在までの時間を加算)する。 In S1516, the abnormality presence/absence determination processing unit 152 updates the "working time" (for example, adds the time from the previous update to the present time).

S1517では、異常有無判定処理部152は、S1514で特定した作業(例えば作業内容情報)を「前回作業」に設定する。その後、処理はS1512に戻る。 In S1517, the abnormality presence/absence determination processing unit 152 sets the work identified in S1514 (for example, work content information) as the "previous work". After that, the process returns to S1512.

S1518では、異常有無判定処理部152は、S1514で特定した作業の標準作業時間を判定結果パターン/作業内容対応情報116から取得し、「作業時間」を標準作業時間と比較して、作業者2が行っている作業が異常であるか否かを判定する。例えば、異常有無判定処理部152は、「作業時間」と標準作業時間との差が所定時間以下であれば作業者2が行っている作業は正常と判定し、上記差が上記所定時間を超えていれば作業者2が行っている作業は異常と判定する。尚、上記所定時間を適切に設定することで、例えば、休憩時間等の作業以外に作業者2が費やしている時間を考慮しつつ上記判定を行うようにしてもよい。 In S1518, the abnormality presence/absence determination processing unit 152 acquires the standard work time of the work identified in S1514 from the determination result pattern/work content correspondence information 116, compares the "work time" with the standard work time, determines whether or not the work being performed is abnormal. For example, the abnormality presence/absence determination processing unit 152 determines that the work performed by the worker 2 is normal if the difference between the “work time” and the standard work time is equal to or less than a predetermined time, and the difference exceeds the predetermined time. If so, the work performed by the worker 2 is determined to be abnormal. Incidentally, by appropriately setting the predetermined time, the determination may be made while taking into consideration the time the worker 2 spends other than work such as break time.

S1519では、異常有無判定処理部152は、判定結果を出力装置15に出力する。 In S<b>1519 , the abnormality presence/absence determination processing unit 152 outputs the determination result to the output device 15 .

このように以上の仕組みによれば、第1実施形態における作業者2の作業監視の仕組みを用いることで、作業者2が行っている作業の作業時間に基づき、作業者2が行っている作業が正常であるか異常であるかを監視する仕組みを実現することができる。 As described above, according to the above mechanism, by using the mechanism for monitoring the work of the worker 2 in the first embodiment, the work performed by the worker 2 can be monitored based on the work time of the work performed by the worker 2. It is possible to realize a mechanism for monitoring whether is normal or abnormal.

[第3実施形態]
第3実施形態の作業監視装置100は、第1実施形態における作業者2の作業監視の仕組みを用いて作業者2が正しい作業順序に従って作業を行っているか否かを監視する。以下、第1実施形態と異なる部分を中心として説明する。
[Third Embodiment]
The work monitoring device 100 of the third embodiment monitors whether or not the worker 2 is performing work according to the correct work order using the work monitoring mechanism of the worker 2 in the first embodiment. The following description will focus on portions that differ from the first embodiment.

図16に第3実施形態の作業監視装置100が備える主な機能を示す。同図に示すように、第3実施形態の作業監視装置100の記憶部110は、第1実施形態の作業監視装置100の記憶部110が記憶する情報に加えて、正しい作業順序を示す情報を含むデータである作業順序情報118を記憶する。また第3実施形態の作業監視装置100の異常有無判定処理部152は、作業者2が予め設定されている正規の作業順序に従って作業を行っているか否かを判定する機能を有する。 FIG. 16 shows main functions of the work monitoring device 100 of the third embodiment. As shown in the figure, the storage unit 110 of the work monitoring device 100 of the third embodiment stores information indicating the correct work order in addition to the information stored by the storage unit 110 of the work monitoring device 100 of the first embodiment. It stores the work order information 118, which is the data included. Further, the abnormality presence/absence determination processing unit 152 of the work monitoring device 100 of the third embodiment has a function of determining whether or not the worker 2 is performing the work according to the regular work order set in advance.

図17は、第3実施形態における作業監視処理S614を説明するフローチャートである。尚、第3実施形態における他の処理(作業監視装置100が行う第1実施形態で説明した他の処理)については第1実施形態と同様であるので説明を省略する。 FIG. 17 is a flowchart for explaining work monitoring processing S614 in the third embodiment. Other processes in the third embodiment (other processes described in the first embodiment performed by the work monitoring device 100) are the same as those in the first embodiment, so description thereof will be omitted.

同図に示すように、まず監視処理部150は、以下の処理で用いる作業変数である「前回作業」を初期化する(S1711)。尚、「前回作業」には、S1712からのループ処理において前回特定した作業を示す情報(例えば、前述の作業内容情報)が設定される。 As shown in the figure, the monitoring processing unit 150 first initializes the "previous work" which is a work variable used in the following processing (S1711). Information indicating the work specified last time in the loop processing from S1712 (for example, the above-mentioned work content information) is set in the "previous work".

続いて、画像データ取得部121が、画像取得装置3から一つ以上の画像データ111を取得する(S1712)。この画像データ111は、作業者2の様子を映した動画データの1フレームの画像である。尚、S1712~S1716のループ処理では、動画データの1フレームの画像データ111が時系列に順次選択される。 Subsequently, the image data acquisition unit 121 acquires one or more pieces of image data 111 from the image acquisition device 3 (S1712). This image data 111 is a one-frame image of moving image data showing the state of the worker 2 . Note that in the loop processing of S1712 to S1716, the image data 111 of one frame of the moving image data are sequentially selected in chronological order.

続いて、判定結果表取得部151が、取得した画像データ111を判定結果表生成部140に渡し、判定結果表生成部140から判定結果表115を取得する(S1713)。尚、S1713の処理は、第1実施形態で説明した判定結果表生成処理S912と同様であるので説明を省略する。 Subsequently, the determination result table acquisition unit 151 passes the acquired image data 111 to the determination result table generation unit 140, and acquires the determination result table 115 from the determination result table generation unit 140 (S1713). Note that the processing of S1713 is the same as the determination result table generation processing S912 described in the first embodiment, so description thereof will be omitted.

続いて、異常有無判定処理部152が、取得した判定結果表115と判定結果パターン/作業内容対応情報116とを対照することにより、作業者2が行っている作業を特定する(S1714)。 Subsequently, the abnormality presence/absence determination processing unit 152 identifies the work performed by the worker 2 by comparing the acquired determination result table 115 with the determination result pattern/work content correspondence information 116 (S1714).

続いて、異常有無判定処理部152は、特定した作業、「前回作業」、及び作業順序情報118を対照することにより、特定した作業が作業順序情報118における作業順序に従った作業であるか否かを判定する(S1715)。尚、1回目のループではS1715の処理はスキップしてS1716の処理に進む。特定した作業が作業順序情報118における作業順序に従った作業であれば(S1715:YES)、処理はS1716に進む。特定した作業が作業順序情報118における作業順序に従った作業でなければ(S1715:NO)、処理はS1717に進む。 Subsequently, the abnormality presence/absence determination processing unit 152 compares the identified work, the “previous work”, and the work order information 118 to determine whether the identified work follows the work order in the work order information 118. (S1715). In the first loop, the process of S1715 is skipped and the process proceeds to S1716. If the specified work follows the work order in the work order information 118 (S1715: YES), the process proceeds to S1716. If the specified work does not follow the work order in the work order information 118 (S1715: NO), the process proceeds to S1717.

S1716では、異常有無判定処理部152は、S1714で特定した作業(例えば作業内容情報)を「前回作業」に設定する。その後、処理はS1712に戻る。 In S1716, the abnormality presence/absence determination processing unit 152 sets the work identified in S1714 (for example, work content information) as the "previous work". After that, the process returns to S1712.

S1717では、異常有無判定処理部152は、判定結果(作業順序が正しい作業順序に従っていないことを示す情報)を出力装置15に出力する。 In S<b>1717 , the abnormality presence/absence determination processing unit 152 outputs the determination result (information indicating that the work order does not follow the correct work order) to the output device 15 .

このように第1実施形態における作業者2の作業監視の仕組みを用いることで、作業者2が行っている作業が正しい作業順序に従っているか否かを監視する仕組みを実現することができる。 Thus, by using the work monitoring mechanism of the worker 2 in the first embodiment, it is possible to realize a mechanism for monitoring whether or not the work performed by the worker 2 follows the correct work order.

[第4実施形態]
第4実施形態の作業監視装置100は、第1実施形態における作業者2の作業監視の仕組みを用いて、作業者2が行っている期間のうち解析対象とする作業が行われている期間を特定する。以下、第1実施形態と異なる部分を中心として説明する。
[Fourth embodiment]
The work monitoring apparatus 100 of the fourth embodiment uses the mechanism of monitoring the work of the worker 2 in the first embodiment to detect the period during which the work to be analyzed is being performed out of the period during which the worker 2 is performing. Identify. The following description will focus on portions that differ from the first embodiment.

図18に第4実施形態の作業監視装置100が備える主な機能を示す。同図に示すように、第4実施形態の作業監視装置100の記憶部110は、第1実施形態の作業監視装置100の記憶部110が記憶する情報に加えて、解析対象とする作業を示す情報(例えば、前述の作業内容情報)を含むデータである解析対象作業情報119を記憶する。また第4実施形態の作業監視装置100の異常有無判定処理部152は、作業者2が行っている期間のうち解析対象とする作業が行われている期間を特定する機能を有する。 FIG. 18 shows main functions of the work monitoring device 100 of the fourth embodiment. As shown in the figure, the storage unit 110 of the work monitoring device 100 of the fourth embodiment indicates the work to be analyzed in addition to the information stored by the storage unit 110 of the work monitoring device 100 of the first embodiment. It stores analysis target work information 119, which is data including information (for example, the work content information described above). Further, the abnormality presence/absence determination processing unit 152 of the work monitoring device 100 of the fourth embodiment has a function of specifying a period during which the work to be analyzed is being performed out of the period during which the worker 2 is performing.

図19は、第4実施形態における作業監視処理S614を説明するフローチャートである。尚、第4実施形態における他の処理(作業監視装置100が行う第1実施形態で説明した他の処理)については第1実施形態と同様であるので説明を省略する。 FIG. 19 is a flowchart for explaining work monitoring processing S614 in the fourth embodiment. Other processes in the fourth embodiment (other processes described in the first embodiment performed by the work monitoring device 100) are the same as those in the first embodiment, so descriptions thereof will be omitted.

同図に示すように、まず画像データ取得部121が、画像取得装置3から一つ以上の画像データ111を取得する(S1911)。この画像データ111は、作業者2の様子を映した動画データの1フレームの画像である。尚、S1911~S1916のループ処理では、動画データの1フレームの画像データ111が時系列に順次選択される。 As shown in the figure, first, the image data acquisition unit 121 acquires one or more pieces of image data 111 from the image acquisition device 3 (S1911). This image data 111 is a one-frame image of moving image data showing the state of the worker 2 . Note that in the loop processing of S1911 to S1916, the image data 111 of one frame of the moving image data are sequentially selected in time series.

続いて、判定結果表取得部151が、取得した画像データ111を判定結果表生成部140に渡し、判定結果表生成部140から判定結果表115を取得する(S1912)。尚、S1912の処理は、第1実施形態で説明した判定結果表生成処理S912と同様であるので説明を省略する。 Subsequently, the determination result table acquisition unit 151 passes the acquired image data 111 to the determination result table generation unit 140, and acquires the determination result table 115 from the determination result table generation unit 140 (S1912). Note that the processing of S1912 is the same as the determination result table generation processing S912 described in the first embodiment, so description thereof will be omitted.

続いて、異常有無判定処理部152が、取得した判定結果表115と判定結果パターン/作業内容対応情報116とを対照することにより、作業者2が行っている作業を特定する(S1913)。 Subsequently, the abnormality presence/absence determination processing unit 152 identifies the work performed by the worker 2 by comparing the acquired determination result table 115 with the determination result pattern/work content correspondence information 116 (S1913).

続いて、異常有無判定処理部152は、特定した作業を解析対象作業情報119と対照し、特定した作業が解析対象か否かを判定する(S1914)。特定した作業が解析対象であれば(S1914:YES)、処理はS1915に進む。特定した作業が解析対象でなければ(S1914:NO)、処理はS1911に戻る。 Subsequently, the abnormality presence/absence determination processing unit 152 compares the identified work with the analysis target work information 119, and determines whether or not the identified work is the analysis target (S1914). If the identified work is to be analyzed (S1914: YES), the process proceeds to S1915. If the specified work is not the analysis target (S1914: NO), the process returns to S1911.

S1915では、異常有無判定処理部152は、作業者2が当該画像データのタイミングで解析対象の作業を行っている旨を示す情報を出力装置15に出力する。 In S1915, the abnormality presence/absence determination processing unit 152 outputs to the output device 15 information indicating that the worker 2 is performing the work to be analyzed at the timing of the image data.

以上の仕組みによれば、作業者2が連続して複数の作業を行う場合に、各作業が行われている期間を示す情報を出力することができ、例えば、作業者2が行う作業を解析しようとする者(以下、「解析者」と称する。)は、解析対象とする期間を容易に特定することができる。 According to the above mechanism, when the worker 2 continuously performs a plurality of tasks, it is possible to output information indicating the period during which each task is performed. A person who intends to do so (hereinafter referred to as an "analyzer") can easily specify the period to be analyzed.

図20に解析者が解析対象とする上記期間の例を示している。例えば、(a)に示すように、解析者は、以上の仕組みを利用して、解析対象とする作業の開始時点及び終了時点を特定することができる。また例えば、(b)に示すように、解析者は、以上の仕組みを利用して、解析対象とする開始時点を特定し、開始時点から所定時間を解析対象の期間として特定することができる。また例えば、(c)に示すように、解析者は、以上の仕組みを利用して、解析対象とする終了時点を特定し、終了時点から所定時間遡った時点から終了時点までを解析対象の期間として特定することができる。 FIG. 20 shows an example of the period to be analyzed by the analyst. For example, as shown in (a), the analyst can use the above mechanism to specify the start and end points of the work to be analyzed. Further, for example, as shown in (b), the analyst can use the above mechanism to specify the start point of time to be analyzed, and specify a predetermined time from the start point as the period to be analyzed. Also, for example, as shown in (c), the analyst uses the above mechanism to specify the end point of the analysis target, and the analysis target period is from the point before the end point by a predetermined time to the end point. can be specified as

以上、本発明の一実施形態について詳細に説明したが、本発明は上記の実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。例えば、上記の実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、説明した全ての構成を備えるものに必ずしも限定されるものではない。また上記実施形態の構成の一部について、他の構成の追加や削除、置換をすることが可能である。 Although one embodiment of the present invention has been described in detail above, it goes without saying that the present invention is not limited to the above-described embodiment, and can be variously modified without departing from the scope of the invention. For example, the above embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations. Moreover, it is possible to add, delete, or replace a part of the configuration of the above embodiment with another configuration.

例えば、以上の各実施形態で説明した作業監視処理S614は、リアルタイムに取得される動画データを対象として実行してもよいし、録画された動画データを対象として事後的に実行してもよい。 For example, the work monitoring process S614 described in each of the above embodiments may be performed on moving image data acquired in real time, or may be performed on recorded moving image data after the fact.

また上記の各構成、機能部、処理部、処理手段等は、それらの一部または全部を、例えば、集積回路で設計する等によりハードウェアで実現してもよい。また上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリやハードディスク、SSD(Solid State Drive)等の記録装置、IC
カード、SDカード、DVD等の記録媒体に置くことができる。
Further, each of the above configurations, functional units, processing units, processing means, and the like may be realized by hardware, for example, by designing a part or all of them using an integrated circuit. Moreover, each of the above configurations, functions, etc. may be realized by software by a processor interpreting and executing a program for realizing each function. Information such as programs, tables, files, etc. that realize each function can be stored in memory, hard disks, recording devices such as SSDs (Solid State Drives), ICs, etc.
It can be placed on a recording medium such as a card, SD card, or DVD.

また上記の各図において、制御線や情報線は説明上必要と考えられるものを示しており、必ずしも実装上の全ての制御線や情報線を示しているとは限らない。例えば、実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Further, in each of the above drawings, control lines and information lines are those considered necessary for explanation, and not all control lines and information lines for implementation are necessarily shown. For example, it may be considered that almost all structures are interconnected in practice.

また以上に説明した各情報処理装置の各種機能部、各種処理部、各種データベースの配置形態は一例に過ぎない。各種機能部、各種処理部、各種データベースの配置形態は、これらの装置が備えるハードウェアやソフトウェアの性能、処理効率、通信効率等の観点から最適な配置形態に変更し得る。 Moreover, the arrangement form of various functional units, various processing units, and various databases of each information processing apparatus described above is merely an example. The arrangement form of various functional units, various processing units, and various databases can be changed to an optimum arrangement form from the viewpoint of the performance, processing efficiency, communication efficiency, etc. of hardware and software provided in these devices.

また前述した各種のデータを格納するデータベースの構成(スキーマ(Schema)等)は、リソースの効率的な利用、処理効率向上、アクセス効率向上、検索効率向上等の観点から柔軟に変更し得る。 Also, the configuration of the database (schema, etc.) that stores the various data described above can be flexibly changed from the viewpoints of efficient use of resources, improvement of processing efficiency, improvement of access efficiency, improvement of search efficiency, and the like.

また前述したマーカを用いた位置検知方法の代わりに、作業者2の身体を自動的に検出できるセンサまたは画像認識手法を利用してオブジェクトの位置検知を行うようにしてもよい。また作業対象物または作業に用いる道具等を自動的に検出できるセンサまたは画像認識手法を利用してオブジェクトの位置検知を行うようにしてもよい。この場合、自動的に検出された身体や作業対象物などの位置情報を用いて、前述した実施形態と同様の処理を行うこととなる。 Further, instead of the position detection method using the markers described above, a sensor capable of automatically detecting the body of the worker 2 or an image recognition method may be used to detect the position of the object. Alternatively, the position of the object may be detected using a sensor capable of automatically detecting the work object or the tool used for the work, or using an image recognition technique. In this case, the automatically detected positional information of the body, work object, etc. is used to perform the same processing as in the above-described embodiment.

1 作業監視システム
2 作業者
3 画像取得装置
4 各種センサ
5 通信手段
100 作業監視装置
111 画像データ
112 センサデータ
113 マーカ色データ
114 判定対象領域データ
115 判定結果表
116 判定結果パターン/作業内容対応情報
120 データ取得部
121 画像データ取得部
122 センサデータ取得部
130 準備設定処理部
131 マーカ色設定処理部
132 判定対象領域設定処理部
133 対応情報設定処理部
140 判定結果表生成部
141 マーカ位置検出処理部
142 判定結果表生成処理部
150 監視処理部
151 判定結果表取得部
152 異常有無判定処理部
S600 メイン処理
S611 マーカ色設定処理
S612 判定対象領域設定処理
S613 対応情報登録処理
S912 判定結果表生成処理
S1011 マーカ位置検出処理
S614 作業監視処理
1 work monitoring system 2 worker 3 image acquisition device 4 various sensors 5 communication means 100 work monitoring device 111 image data 112 sensor data 113 marker color data 114 determination target area data 115 determination result table 116 determination result pattern/work content correspondence information 120 data acquisition unit 121 image data acquisition unit 122 sensor data acquisition unit 130 preparation setting processing unit 131 marker color setting processing unit 132 determination target area setting processing unit 133 correspondence information setting processing unit 140 determination result table generation unit 141 marker position detection processing unit 142 Judgment result table generation processing unit 150 Monitoring processing unit 151 Judgment result table acquisition unit 152 Abnormality presence/absence judgment processing unit S600 Main processing S611 Marker color setting processing S612 Judgment target area setting processing S613 Corresponding information registration processing S912 Judgment result table generation processing S1011 Marker position Detection processing S614 Work monitoring processing

Claims (13)

プロセッサ及びメモリを有する情報処理装置を用いて構成され、
作業者が作業を行っている様子を映した画像データを取得する画像データ取得部と、
前記画像データに映っている複数の物体について前記画像データにおける夫々の位置を示す情報を取得する物体位置検出部と、
前記画像データに設定された領域である一つ以上の判定対象領域の夫々に前記複数の物体の夫々の前記位置が含まれているか否かを判定した結果を示す情報を含んだ判定結果表を生成する判定結果表生成部と、
前記画像データに基づき生成される前記判定結果表と当該画像データにおける作業を示す情報である作業内容情報とを対応づけた情報である判定結果パターン/作業内容対応情報を記憶する記憶部と、
新たに取得された前記画像データについて前記判定結果表を生成し、生成した前記判定結果表と前記判定結果パターン/作業内容対応情報とを対照することにより前記作業者が行っている作業を特定する監視処理部と、
を備え
前記判定結果表は、前記物体の前記位置が前記画像データに含まれているか否かを示す情報を更に含む、
作業監視装置。
configured using an information processing device having a processor and memory,
an image data acquisition unit that acquires image data of a worker performing work;
an object position detection unit that acquires information indicating the positions of each of a plurality of objects appearing in the image data in the image data;
a determination result table containing information indicating results of determining whether or not the positions of the plurality of objects are included in each of one or more determination target areas set in the image data; a determination result table generation unit to generate;
a storage unit that stores determination result pattern/work content correspondence information that is information in which the determination result table generated based on the image data and work content information that is information indicating work in the image data are associated;
The determination result table is generated for the newly acquired image data, and the work performed by the worker is specified by comparing the generated determination result table with the determination result pattern/work content correspondence information. a monitoring processing unit;
with
The determination result table further includes information indicating whether the position of the object is included in the image data,
Work monitoring device.
請求項1に記載の作業監視装置であって、
前記作業者が作業を行う現場に設けられたセンサが出力するデータであるセンサデータを取得するセンサデータ取得部をさらに備え、
前記判定結果表は、前記センサから取得した前記センサデータをさらに含み、
前記監視処理部は、新たに取得された前記画像データと当該画像データの取得時に前記センサから取得した前記センサデータとに基づき前記判定結果表を生成し、生成した前記判定結果表と前記判定結果パターン/作業内容対応情報とを対照して人が行っている作業を特定する、
作業監視装置。
The work monitoring device according to claim 1,
Further comprising a sensor data acquisition unit that acquires sensor data, which is data output by a sensor provided at the site where the worker works,
The determination result table further includes the sensor data obtained from the sensor,
The monitoring processing unit generates the determination result table based on the newly acquired image data and the sensor data acquired from the sensor when the image data is acquired, and generates the determination result table and the determination result. identify the work that the person is doing by comparing with the pattern/work content correspondence information;
Work monitoring device.
請求項1又は2に記載の作業監視装置であって、
前記記憶部は、所定の前記作業に要する標準の作業時間を示す情報を記憶し、
前記画像データ取得部は、前記作業者が作業を行っている様子を映した時系列の画像データを取得し、
前記判定結果表生成部は、時系列の前記画像データの夫々について前記判定結果表を生成し、
前記監視処理部は、前記判定結果表の夫々と前記判定結果パターン/作業内容対応情報とを対照して前記作業者が行っている作業を特定することにより、前記作業者が前記所定の作業に要した作業時間を取得し、前記作業時間と前記標準の作業時間とを比較することにより前記作業者が行っている作業を監視する、
作業監視装置。
The work monitoring device according to claim 1 or 2 ,
The storage unit stores information indicating a standard work time required for the predetermined work,
The image data acquisition unit acquires time-series image data showing the worker working,
The determination result table generation unit generates the determination result table for each of the time-series image data,
The monitoring processing unit compares each of the determination result tables with the determination result pattern/work content correspondence information to specify the work performed by the worker, thereby enabling the worker to perform the predetermined work. Obtaining the required work time and monitoring the work performed by the worker by comparing the work time with the standard work time;
Work monitoring device.
請求項1又は2に記載の作業監視装置であって、
前記記憶部は、前記作業者が行う複数の前記作業についての標準の作業順序を示す情報を記憶し、
前記画像データ取得部は、前記作業者が作業を行っている様子を映した時系列の画像データを取得し、
前記判定結果表生成部は、時系列の前記画像データの夫々について前記判定結果表を生
成し、
前記監視処理部は、前記判定結果表の夫々と前記判定結果パターン/作業内容対応情報とを対照して前記作業者が行っている作業を特定することにより、前記作業者が行っている作業の順序を特定し、特定した前記作業順序と前記標準の作業順序とを比較することにより前記作業者が行っている作業を監視する、
作業監視装置。
The work monitoring device according to claim 1 or 2 ,
The storage unit stores information indicating a standard work order for the plurality of work performed by the worker,
The image data acquisition unit acquires time-series image data showing the worker working,
The determination result table generation unit generates the determination result table for each of the time-series image data,
The monitoring processing unit compares each of the determination result tables with the determination result pattern/work content correspondence information to specify the work performed by the worker, thereby determining the work performed by the worker. Identifying an order and monitoring the work performed by the worker by comparing the identified work order with the standard work order;
Work monitoring device.
請求項1又は2に記載の作業監視装置であって、
前記記憶部は、前記作業者が行う所定の作業を示す情報を記憶し、
前記画像データ取得部は、前記作業者が作業を行っている様子を映した時系列の画像データを取得し、
前記判定結果表生成部は、時系列の前記画像データの夫々について前記判定結果表を生成し、
前記監視処理部は、前記判定結果表の夫々と前記判定結果パターン/作業内容対応情報とを対照して前記作業者が行っている作業を特定することにより、前記所定の作業の開始又は終了のタイミングを示す情報を生成する、
作業監視装置。
The work monitoring device according to claim 1 or 2 ,
The storage unit stores information indicating a predetermined work to be performed by the worker,
The image data acquisition unit acquires time-series image data showing the worker working,
The determination result table generation unit generates the determination result table for each of the time-series image data,
The monitoring processing unit compares each of the determination result tables with the determination result pattern/work content correspondence information to specify the work being performed by the worker, thereby determining whether the predetermined work is to be started or finished. generate information indicating timing,
Work monitoring device.
請求項1に記載の作業監視装置であって、
前記画像データについての前記判定対象領域の設定を受け付ける判定対象領域設定処理部を更に備える、
作業監視装置。
The work monitoring device according to claim 1,
further comprising a determination target area setting unit that receives setting of the determination target area for the image data;
Work monitoring device.
請求項1に記載の作業監視装置であって、
前記物体は、前記作業者の体の一部、作業対象物、及び前記作業者が作業に際して用いる道具のうちの少なくともいずれかである、
作業監視装置。
The work monitoring device according to claim 1,
The object is at least one of a part of the worker's body, a work target, and a tool used by the worker during work,
Work monitoring device.
請求項1に記載の作業監視装置であって、
前記物体位置検出部は、前記物体に設けたマーカを画像認識することにより前記物体の前記画像データにおける位置を示す情報を取得する、
作業監視装置。
The work monitoring device according to claim 1,
The object position detection unit acquires information indicating the position of the object in the image data by image recognition of a marker provided on the object.
Work monitoring device.
プロセッサ及びメモリを有する情報処理装置が、
作業者が作業を行っている様子を映した画像データを取得し、
前記画像データに映っている複数の物体について前記画像データにおける夫々の位置を示す情報を取得し、
前記画像データに設定された領域である一つ以上の判定対象領域の夫々に前記複数の物体の夫々の前記位置が含まれているか否かを判定した結果を示す情報を含んだ判定結果表を生成し、
前記画像データに基づき生成される前記判定結果表と当該画像データにおける作業を示す情報である作業内容情報とを対応づけた情報である判定結果パターン/作業内容対応情報を記憶し、
新たに取得された前記画像データについて前記判定結果表を生成し、生成した前記判定結果表と前記判定結果パターン/作業内容対応情報とを対照することにより前記作業者が行っている作業を特定し
前記判定結果表は、前記物体の前記位置が前記画像データに含まれているか否かを示す情報を更に含む、
作業監視方法。
An information processing device having a processor and memory,
Acquire image data showing the state of the worker working,
Acquiring information indicating respective positions in the image data for a plurality of objects appearing in the image data;
a determination result table containing information indicating results of determining whether or not the positions of the plurality of objects are included in each of one or more determination target areas set in the image data; generate and
storing determination result pattern/work content correspondence information that is information in which the determination result table generated based on the image data and work content information that is information indicating work in the image data are associated;
The determination result table is generated for the newly acquired image data, and the work performed by the worker is specified by comparing the generated determination result table with the determination result pattern/work content correspondence information. ,
The determination result table further includes information indicating whether the position of the object is included in the image data,
Work monitoring method.
請求項に記載の作業監視方法であって、
前記情報処理装置は、前記作業者が作業を行う現場に設けられたセンサが出力するデータであるセンサデータを取得し、
前記判定結果表は、前記センサから取得した前記センサデータをさらに含み、
前記情報処理装置は、新たに取得された前記画像データと当該画像データの取得時に前記センサから取得した前記センサデータとに基づき前記判定結果表を生成し、生成した前記判定結果表と前記判定結果パターン/作業内容対応情報とを対照して人が行っている作業を特定する、
作業監視方法。
The work monitoring method according to claim 9 ,
The information processing device acquires sensor data, which is data output by a sensor provided at a site where the worker works,
The determination result table further includes the sensor data obtained from the sensor,
The information processing device generates the determination result table based on the newly acquired image data and the sensor data acquired from the sensor when the image data is acquired, and generates the determination result table and the determination result. identify the work that the person is doing by comparing with the pattern/work content correspondence information;
Work monitoring method.
請求項9又は10に記載の作業監視方法であって、
前記情報処理装置が、
所定の前記作業に要する標準の作業時間を示す情報を記憶し、
前記作業者が作業を行っている様子を映した時系列の画像データを取得し、
時系列の前記画像データの夫々について前記判定結果表を生成し、
前記判定結果表の夫々と前記判定結果パターン/作業内容対応情報とを対照して前記作業者が行っている作業を特定することにより、前記作業者が前記所定の作業に要した作業時間を取得し、前記作業時間と前記標準の作業時間とを比較することにより前記作業者が行っている作業を監視する、
作業監視方法。
The work monitoring method according to claim 9 or 10 ,
The information processing device
storing information indicating a standard work time required for the predetermined work;
Acquiring time-series image data showing how the worker is working,
generating the determination result table for each of the time-series image data;
By comparing each of the determination result tables with the determination result pattern/work content correspondence information to specify the work performed by the worker, the work time required for the predetermined work by the worker is acquired. and monitoring the work performed by the worker by comparing the work time with the standard work time;
Work monitoring method.
請求項9又は10に記載の作業監視方法であって、
前記情報処理装置が、
前記作業者が行う複数の前記作業についての標準の作業順序を示す情報を記憶し、
前記作業者が作業を行っている様子を映した時系列の画像データを取得し、
時系列の前記画像データの夫々について前記判定結果表を生成し、
前記判定結果表の夫々と前記判定結果パターン/作業内容対応情報とを対照して前記作業者が行っている作業を特定することにより、前記作業者が行っている作業の順序を特定し、特定した前記作業順序と前記標準の作業順序とを比較することにより前記作業者が行っている作業を監視する、
作業監視方法。
The work monitoring method according to claim 9 or 10 ,
The information processing device
storing information indicating a standard work order for the plurality of work performed by the worker;
Acquiring time-series image data showing how the worker is working,
generating the determination result table for each of the time-series image data;
By identifying the work performed by the worker by comparing each of the determination result tables with the determination result pattern/work content correspondence information, the order of the work performed by the worker is specified and specified. monitoring the work being performed by the worker by comparing the work order and the standard work order;
Work monitoring method.
請求項9又は10のいずれか一項に記載の作業監視方法であって、
前記情報処理装置が、
前記作業者が行う所定の作業を示す情報を記憶し、
前記作業者が作業を行っている様子を映した時系列の画像データを取得し、
時系列の前記画像データの夫々について前記判定結果表を生成し、
前記判定結果表の夫々と前記判定結果パターン/作業内容対応情報とを対照して前記作業者が行っている作業を特定することにより、前記所定の作業の開始又は終了のタイミングを示す情報を生成する、
作業監視方法。
The work monitoring method according to any one of claims 9 and 10 ,
The information processing device
storing information indicating a predetermined work to be performed by the worker;
Acquiring time-series image data showing how the worker is working,
generating the determination result table for each of the time-series image data;
Information indicating the start or end timing of the predetermined work is generated by identifying the work performed by the worker by comparing each of the determination result tables with the determination result pattern/work content correspondence information. do,
Work monitoring method.
JP2019103551A 2019-06-03 2019-06-03 Work monitoring device and work monitoring method Active JP7324618B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019103551A JP7324618B2 (en) 2019-06-03 2019-06-03 Work monitoring device and work monitoring method
PCT/JP2020/007755 WO2020246082A1 (en) 2019-06-03 2020-02-26 Work monitoring device and work monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019103551A JP7324618B2 (en) 2019-06-03 2019-06-03 Work monitoring device and work monitoring method

Publications (2)

Publication Number Publication Date
JP2020197899A JP2020197899A (en) 2020-12-10
JP7324618B2 true JP7324618B2 (en) 2023-08-10

Family

ID=73649639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019103551A Active JP7324618B2 (en) 2019-06-03 2019-06-03 Work monitoring device and work monitoring method

Country Status (2)

Country Link
JP (1) JP7324618B2 (en)
WO (1) WO2020246082A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022176819A (en) * 2021-05-17 2022-11-30 株式会社日立製作所 Work recognition device and work recognition method
WO2023166605A1 (en) * 2022-03-02 2023-09-07 日本電気株式会社 Action determination device, action determination method, and non-transitory computer-readable medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009032033A (en) 2007-07-27 2009-02-12 Omron Corp Operation boundary detection method and operation analysis system
JP2013145422A (en) 2012-01-13 2013-07-25 Panasonic Corp Setting method of work detection system and work detection system using the same
JP2014115700A (en) 2012-12-06 2014-06-26 Nec Corp Confirmation requirement degree determination device, confirmation requirement degree determination method, and program
JP2019032593A (en) 2017-08-04 2019-02-28 オリンパス株式会社 Imaging system, imaging device and imaging method
JP2019053527A (en) 2017-09-15 2019-04-04 キヤノン株式会社 Assembly work analysis device, assembly work analysis method, computer program, and storage medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009032033A (en) 2007-07-27 2009-02-12 Omron Corp Operation boundary detection method and operation analysis system
JP2013145422A (en) 2012-01-13 2013-07-25 Panasonic Corp Setting method of work detection system and work detection system using the same
JP2014115700A (en) 2012-12-06 2014-06-26 Nec Corp Confirmation requirement degree determination device, confirmation requirement degree determination method, and program
JP2019032593A (en) 2017-08-04 2019-02-28 オリンパス株式会社 Imaging system, imaging device and imaging method
JP2019053527A (en) 2017-09-15 2019-04-04 キヤノン株式会社 Assembly work analysis device, assembly work analysis method, computer program, and storage medium

Also Published As

Publication number Publication date
WO2020246082A1 (en) 2020-12-10
JP2020197899A (en) 2020-12-10

Similar Documents

Publication Publication Date Title
CN104919794B (en) For extracting the method and system of metadata from master-slave mode camera tracking system
JP4752721B2 (en) Movement pattern identification device, movement pattern identification method, movement pattern identification program, and recording medium recording the same
JP2019101919A (en) Information processor, information processing method, computer program, and storage medium
JP7324618B2 (en) Work monitoring device and work monitoring method
WO2017084319A1 (en) Gesture recognition method and virtual reality display output device
JP2011029737A (en) Surveillance image retrieval apparatus and surveillance system
JP2017530447A (en) System and method for inputting a gesture in a 3D scene
JP2011130204A (en) Video information processing method, and video information processing apparatus
US11106949B2 (en) Action classification based on manipulated object movement
JP2017505965A (en) Real-time 3D gesture recognition and tracking system for mobile devices
JP2007034525A (en) Information processor, information processing method and computer program
JP2020135747A (en) Action analysis device and action analysis method
JP2015219892A (en) Visual line analysis system and visual line analysis device
WO2021020500A1 (en) Information processing device and marketing activity assistance device
US20160110909A1 (en) Method and apparatus for creating texture map and method of creating database
JP6909657B2 (en) Video recognition system
JP2010146522A (en) Face image tracking device, face image tracking method, and program
KR101447958B1 (en) Method and apparatus for recognizing body point
JP2007048232A (en) Information processing device, information processing method, and computer program
KR101520889B1 (en) Digilog Book System Using Distance Information Between Object and Hand Device and Implementation Method Therof
JP7332465B2 (en) Motion recognition system, motion recognition device, and region setting method
JP2015184743A (en) Image processor and object recognition method
KR101530355B1 (en) Method and system for searching motion capture data
KR20130056170A (en) Real-time detection method of human abnormality using motion sequence and apparatus thereof
CN115273215A (en) Job recognition system and job recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230731

R150 Certificate of patent or registration of utility model

Ref document number: 7324618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150