JP2024005533A - Work management device and work management method - Google Patents

Work management device and work management method Download PDF

Info

Publication number
JP2024005533A
JP2024005533A JP2022105746A JP2022105746A JP2024005533A JP 2024005533 A JP2024005533 A JP 2024005533A JP 2022105746 A JP2022105746 A JP 2022105746A JP 2022105746 A JP2022105746 A JP 2022105746A JP 2024005533 A JP2024005533 A JP 2024005533A
Authority
JP
Japan
Prior art keywords
work
captured image
timing
worker
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022105746A
Other languages
Japanese (ja)
Inventor
眞平 佐藤
Shinpei Sato
幸一 根本
Koichi Nemoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Acuity Inc
Original Assignee
Acuity Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Acuity Inc filed Critical Acuity Inc
Priority to JP2022105746A priority Critical patent/JP2024005533A/en
Publication of JP2024005533A publication Critical patent/JP2024005533A/en
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a work management device which can accurately determine that a work object is arranged at a prescribed position.
SOLUTION: A work management device 2 comprises: an image acquisition unit 242 which acquires a photographed image generated by imaging the work in which a worker arranges a work object in a prescribed designated area T by an imaging device; an operation portion detection unit 243 which detects a position of an operation portion of the worker imaged in the photographed image; a determination unit 244 which specifies a first photographed image captured at first timing before the operation portion detected by the operation portion detection unit 243 enters the designated area T and a second photographed image captured at second timing after the operation portion enters the designated area T, and determines that the work object is arranged in the designated area T when a difference between the image of the designated area T in the first photographed image and the image of the designated area T in the second photographed image is equal to or greater than a prescribed threshold; and an output unit 245 which outputs a determination result of the determination unit 244.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、作業管理装置及び作業管理方法に関する。 The present invention relates to a work management device and a work management method.

従来、作業者が行う作業を撮影することによって取得した撮像画像を分析し、作業者の手が所定の監視領域に入ったことや、作業者によって部品が所定の位置に組み付けられたことを検出する作業分析システムが知られている(例えば特許文献1参照)。 Conventionally, images obtained by photographing the work performed by a worker are analyzed to detect when a worker's hand enters a predetermined monitoring area or when a part is assembled in a predetermined position by the worker. A work analysis system is known (for example, see Patent Document 1).

特開2021-163293号JP2021-163293

例えば、作業者がある位置に置かれている対象物を所定の位置に移動させ、その対象物を配置する作業においては、対象物が所定の位置に配置されたか否かを判定することが重要となる。しかし、従来の技術では、対象物が所定の位置に配置されたことを精度よく判定できないという問題があった。 For example, when a worker moves an object from a certain position to a predetermined position and places the object, it is important to determine whether the object has been placed at the predetermined position. becomes. However, the conventional technology has a problem in that it is not possible to accurately determine whether the object is placed at a predetermined position.

そこで、本発明は上記に鑑みてなされたものであり、作業対象物が所定の位置に配置されたことを精度よく判定できる作業管理装置及び作業管理方法を提供することを目的とする。 Therefore, the present invention has been made in view of the above, and an object of the present invention is to provide a work management device and a work management method that can accurately determine whether a work object is placed at a predetermined position.

本発明の一形態の作業管理装置は、作業者が作業対象物を所定の指定エリアに配置する作業を撮像装置が撮影することによって生成した撮像画像を取得する画像取得部と、前記撮像画像に写っている前記作業者の動作部位の位置を検出する動作部位検出部と、前記動作部位検出部によって検出された前記動作部位が前記指定エリアに入る前の第1タイミングで撮影された第1撮像画像と、前記動作部位が前記指定エリアに入った後の第2タイミングで撮影された第2撮像画像とを特定し、前記第1撮像画像における前記指定エリアの画像と、前記第2撮像画像における前記指定エリアの画像との差分が所定の閾値以上の場合に、前記指定エリアに前記作業対象物が配置されたと判定する判定部と、前記判定部の判定結果を出力する出力部と、を備える。 A work management device according to one embodiment of the present invention includes: an image acquisition unit that acquires a captured image generated by an imaging device capturing a task in which a worker places a work object in a predetermined designated area; a working part detection unit that detects the position of the working part of the worker in the photograph; and a first image taken at a first timing before the working part detected by the working part detection unit enters the designated area. image and a second captured image taken at a second timing after the operating part enters the specified area, and identify the image of the specified area in the first captured image and the second captured image in the second captured image. a determination unit that determines that the work object is placed in the designated area when a difference between the designated area and the image is greater than or equal to a predetermined threshold; and an output unit that outputs a determination result of the determination unit. .

前記判定部は、前記動作部位が前記指定エリアに入っていない前記第1タイミングの撮像画像を前記第1撮像画像として特定し、かつ、前記動作部位が前記指定エリアに入っていない前記第2タイミングの撮像画像を前記第2撮像画像として特定し、特定した前記第1撮像画像と前記第2撮像画像との差分に基づいて前記判定を行ってもよい。 The determining unit is configured to identify, as the first captured image, a captured image at the first timing in which the operating part does not enter the specified area, and to specify the captured image at the second timing in which the operating part does not enter the designated area as the first captured image. The captured image may be specified as the second captured image, and the determination may be made based on a difference between the specified first captured image and the second captured image.

前記判定部は、前記動作部位が前記指定エリアに入っている所定の基準時刻から第1設定時間だけ前の時刻を前記第1タイミングと決定するとともに、前記所定の基準時刻から第2設定時間だけ後の時刻を前記第2タイミングと決定してもよい。 The determination unit determines, as the first timing, a time that is a first set time before a predetermined reference time when the operating part enters the specified area, and determines a second set time from the predetermined reference time as the first timing. A later time may be determined as the second timing.

前記撮像装置は、複数の前記指定エリアを含む撮像画像を生成し、前記判定部は、前記指定エリアごとに前記第1タイミング及び第2タイミングを決定してもよい。 The imaging device may generate a captured image including a plurality of the specified areas, and the determination unit may determine the first timing and the second timing for each of the specified areas.

前記動作部位検出部は、前記撮像画像に写っている前記作業者の身体の画像に基づき、複数の動作ポイントを含む前記身体の骨格情報を作成し、前記出力部は、前記複数の動作ポイントのうち前記作業者が行う前記作業の内容に関連する所定の動作ポイントを、前記作業者の身体の画像における前記所定の動作ポイントに対応する身体の部位に重畳させて画像表示部に表示させてもよい。 The motion part detection section creates skeletal information of the body including a plurality of motion points based on the image of the worker's body shown in the captured image, and the output section generates skeletal information of the body including a plurality of motion points. A predetermined motion point related to the content of the work performed by the worker may be displayed on the image display unit by being superimposed on a body part corresponding to the predetermined motion point in the body image of the worker. good.

前記動作部位検出部は、前記撮像画像に写っている前記作業者の身体の画像に基づき前記身体の骨格情報を作成し、前記骨格情報に基づいて特定した、前記作業者が行う前記作業の内容に関連する1以上の動作ポイントの位置に基づいて前記動作部位の位置を検出してもよい。 The operating part detection unit creates skeletal information of the body based on the image of the worker's body shown in the captured image, and determines the content of the work performed by the worker, which is specified based on the skeletal information. The position of the motion part may be detected based on the position of one or more motion points associated with the motion part.

前記動作部位検出部は、複数の前記作業の内容と、前記作業の内容に関連する複数の前記所定の動作ポイントとを関連付けて記憶する記憶部を参照し、ユーザから受け付けた前記作業の内容の入力に応じて、入力された前記作業の内容に関連する前記所定の動作ポイントを決定してもよい。 The motion part detection section refers to a storage section that stores a plurality of work contents in association with a plurality of predetermined motion points related to the work contents, and detects the work contents received from the user. In response to an input, the predetermined operation point related to the inputted content of the work may be determined.

前記作業管理装置は、前記動作部位検出部が作成した前記骨格情報が示す動きに基づいて、前記作業者が行う前記作業の内容を特定する作業特定部をさらに備え、前記動作部位検出部は、前記作業特定部が特定した前記作業の内容に関連する前記動作ポイントの位置に基づいて前記動作部位の位置を検出してもよい。 The work management device further includes a work specifying unit that specifies the content of the work performed by the worker based on the movement indicated by the skeletal information created by the working part detecting unit, and the working part detecting unit includes: The position of the motion part may be detected based on the position of the motion point related to the content of the work specified by the work specifying unit.

前記判定部は、前記作業対象物が配置された対象物配置エリアから前記作業者が前記作業対象物をピックアップしたことを検出する検出手段からの出力を受信した受信タイミング、又は、前記受信タイミングよりも所定時間だけ前若しくは後のタイミングを、前記第1タイミングとしてもよい。 The determination unit is configured to determine the timing at which the output from the detection means for detecting that the worker has picked up the work object from the object arrangement area where the work object is arranged, or from the reception timing. The first timing may be a timing before or after a predetermined time.

本発明の一形態の作業管理方法は、作業者が作業対象物を所定の指定エリアに配置する作業を撮像装置が撮影することによって生成した撮像画像を取得する画像取得ステップと、前記撮像画像に写っている前記作業者の動作部位の位置を検出する動作部位検出ステップと、前記動作部位検出ステップにおいて検出された前記動作部位が前記指定エリアに入る前の第1タイミングで撮影された第1撮像画像と、前記動作部位が前記指定エリアに入った後の第2タイミングで撮影された第2撮像画像とを特定し、前記第1撮像画像における前記指定エリアの画像と、前記第2撮像画像における前記指定エリアの画像との差分が所定の閾値以上の場合に、前記指定エリアに前記作業対象物が配置されたと判定する判定ステップと、前記判定ステップでの判定結果を出力する出力ステップと、を有し、各ステップはコンピュータによって実行される。 A work management method according to an embodiment of the present invention includes an image acquisition step of acquiring a captured image generated by an imaging device capturing a task of placing a work object in a predetermined designated area by a worker; a working part detecting step of detecting the position of the working part of the worker in the photograph; and a first image taken at a first timing before the working part detected in the working part detecting step enters the specified area. image and a second captured image taken at a second timing after the operating part enters the specified area, and identify the image of the specified area in the first captured image and the second captured image in the second captured image. a determination step of determining that the work object is placed in the designated area when a difference between the designated area and the image is greater than or equal to a predetermined threshold; and an output step of outputting a determination result in the determination step. and each step is executed by a computer.

本発明によれば、作業対象物が所定の位置に配置されたことを精度よく判定できる作業管理装置及び作業管理方法を提供できるという効果を奏する。 According to the present invention, it is possible to provide a work management device and a work management method that can accurately determine whether a work object is placed at a predetermined position.

本発明の一実施形態の作業管理システムの構成を示す図である。1 is a diagram showing the configuration of a work management system according to an embodiment of the present invention. 作業者が行う作業を上方から見た様子を示す図である。FIG. 3 is a diagram showing a work performed by a worker viewed from above. カメラが撮影した撮像画像と、画像上に表示された在庫エリア及び指定エリアとを示す図である。FIG. 3 is a diagram showing a captured image taken by a camera, and an inventory area and a specified area displayed on the image. 作業者の手の画像に基づいて作成された骨格情報を示す図である。FIG. 3 is a diagram showing skeletal information created based on an image of a worker's hand. 記憶部が記憶する作業の内容と動作ポイントとが関連付けられたデータテーブルの一例である。This is an example of a data table in which the contents of work and operation points are associated with each other, which is stored in the storage unit. 判定部による撮像画像の差分に基づく商品配置の判定を説明するための模式図である。FIG. 6 is a schematic diagram for explaining determination of product placement based on a difference between captured images by a determination unit. 作業管理システムの動作の一例のフローチャートである。It is a flowchart of an example of operation of a work management system. カメラが撮影した撮像画像と、画像上に表示された複数の在庫エリア及び複数の指定エリアとを示す図である。FIG. 3 is a diagram showing a captured image taken by a camera, and a plurality of inventory areas and a plurality of designated areas displayed on the image. 本発明の実施の形態の変形例の構成を示すブロック図である。It is a block diagram showing the composition of the modification of the embodiment of the present invention.

<第1の実施形態>
以下、本発明の実施形態について図面を参照しながら説明する。
以下の説明では、同一又は対応する要素には同一又は対応する符号を付し、重複する説明は省略する。図1は、本発明の一実施形態の作業管理システムS100の構成を示す図である。図2は、作業者が行う作業を上方から見た様子を示す図である。図3は、カメラ1が撮影した撮像画像と、画像上に表示された在庫エリアS及び指定エリアTとを示す図である。
<First embodiment>
Embodiments of the present invention will be described below with reference to the drawings.
In the following description, the same or corresponding elements will be denoted by the same or corresponding symbols, and overlapping description will be omitted. FIG. 1 is a diagram showing the configuration of a work management system S100 according to an embodiment of the present invention. FIG. 2 is a diagram showing the work performed by the worker viewed from above. FIG. 3 is a diagram showing a captured image taken by the camera 1, and the inventory area S and designated area T displayed on the image.

[作業管理システムS100の概要]
作業管理システムS100は、図1に示すように、カメラ1と、作業管理装置2とを備えている。本実施形態では、作業管理システムS100が、作業者が行う商品の仕分け作業を撮影することを例示する。この作業は具体的には、図1及び図2に示すように、作業者が、複数の在庫箱11-1、11-2、11-3(単に在庫箱11ともいう)から作業対象物である商品5を取り、その商品5を梱包箱12に移動させて配置する作業である。
[Overview of work management system S100]
The work management system S100 includes a camera 1 and a work management device 2, as shown in FIG. In this embodiment, the work management system S100 takes pictures of product sorting work performed by a worker. Specifically, in this work, as shown in FIGS. 1 and 2, a worker selects work objects from a plurality of inventory boxes 11-1, 11-2, and 11-3 (also simply referred to as inventory boxes 11). This is a task of picking up a certain product 5, moving the product 5 to the packaging box 12, and arranging it.

本実施形態の作業管理システムS100は、作業者の手が梱包箱12に対応する所定の指定エリアTに入る前のタイミングで撮影された撮像画像と、作業者の手がその指定エリアTに入った後のタイミングで撮影された撮像画像との差分に基づいて、梱包箱12に商品5が配置されたことを判定することを特徴の1つとしている。 The work management system S100 of this embodiment uses a captured image taken at a timing before the worker's hand enters a predetermined designated area T corresponding to the packaging box 12, and a captured image taken at a timing before the worker's hand enters the designated area T corresponding to the packaging box 12. One of the features is that it is determined that the product 5 has been placed in the packaging box 12 based on the difference with the captured image taken at a later timing.

作業者が行うこの種の作業においては、商品5を掴んだ状態の作業者の手が梱包箱12の上を通過したが商品5が梱包箱12に配置されないことが想定される。そのため、単に作業者の手が指定エリアTに入ったことを条件として商品5が梱包箱12に配置されたと判定をする方式では、商品5が梱包箱12に配置されたことを正しく判定できない。 In this type of work performed by a worker, it is assumed that although the worker's hand holding the product 5 passes over the packaging box 12, the product 5 is not placed in the packaging box 12. Therefore, in a method that determines that the product 5 is placed in the packaging box 12 simply on the condition that the worker's hand enters the designated area T, it cannot be correctly determined that the product 5 is placed in the packaging box 12.

これに対して、本実施形態の作業管理システムS100によれば、詳細は後述するが、指定エリアTに作業者の手が入った前の撮像画像と、指定エリアTに作業者の手が入った後の撮像画像とを用い、それらの撮像画像の差分に基づいて商品5が配置されたことを判定するため、商品5が梱包箱12に配置されたことを精度よく判定することができる。 On the other hand, according to the work management system S100 of the present embodiment, the details will be described later, but the captured image before the worker's hand entered the designated area T and the captured image before the worker's hand entered the designated area T. Since it is determined that the product 5 has been placed on the basis of the difference between the captured images and the captured images after the image capture, it is possible to accurately determine that the product 5 has been placed in the packaging box 12.

[作業管理システムS100の各部の説明]
(カメラ1)
カメラ1は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を有する撮像装置である。カメラ1は、不図示の支持体によって支持され、在庫箱11、梱包箱12、商品5及び作業をしている作業者の手を上方から、所定のフレームレートで撮影する。カメラ1は、生成した撮像画像を作業管理装置2へ送信する。
[Description of each part of the work management system S100]
(Camera 1)
The camera 1 is an imaging device having an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 1 is supported by a support (not shown) and photographs the inventory box 11, the packaging box 12, the product 5, and the hands of the worker from above at a predetermined frame rate. The camera 1 transmits the generated captured image to the work management device 2.

(作業管理装置2)
作業管理装置2は、例えば、コンピュータプログラムがインストールされたコンピュータである。作業管理装置2は、一例として、図1に示すように、入力部21、表示部22、記憶部23、及び制御部24を有する。
(Work management device 2)
The work management device 2 is, for example, a computer in which a computer program is installed. The work management device 2 includes, for example, an input section 21, a display section 22, a storage section 23, and a control section 24, as shown in FIG.

入力部21は、作業者からの入力を受け付けるためのデバイスである。入力部21は、例えばキーボード、マウス、タッチパネル等の任意のデバイスである。 The input unit 21 is a device for receiving input from a worker. The input unit 21 is any device such as a keyboard, mouse, touch panel, etc., for example.

表示部22は、各種の情報を表示する任意の画像表示部であり、例えば1つ又は複数のディスプレイである。入力部21及び表示部22が、タッチパネル式ディスプレイとして構成されていてもよい。表示部22は、カメラ1が生成した連続的な複数の撮像画像である動画を例えばリアルタイムに表示する。表示部22は、ディスプレイとして構成されたもののほか、例えば、投影部(不図示)が所定の被写体に対して映像を投影することにより各種の情報が表示されるものであってもよい。 The display unit 22 is any image display unit that displays various types of information, and is, for example, one or more displays. The input section 21 and the display section 22 may be configured as a touch panel display. The display unit 22 displays, for example, a moving image that is a plurality of continuous captured images generated by the camera 1 in real time. In addition to being configured as a display, the display unit 22 may be configured to display various information by, for example, projecting an image onto a predetermined subject by a projection unit (not shown).

表示部22は、一例として図3のような画像が表示する。図3の画像は、カメラ1が生成した撮像画像に加えて、在庫エリアS及び指定エリアTを含んでいる。在庫エリアSは、在庫箱11に対応する大きさにエリアであり、この例では、それぞれの在庫箱11に対応して3つの在庫エリアSが設定されている。指定エリアTは、梱包箱12に対応する大きさに設定されたエリアであり、この例では、梱包箱12に対応して1つの指定エリアTが設定されている。在庫エリアS及び指定エリアTの設定については、後述する。 The display unit 22 displays an image as shown in FIG. 3, for example. The image in FIG. 3 includes an inventory area S and a designated area T in addition to the captured image generated by the camera 1. The inventory area S is an area with a size corresponding to the inventory box 11, and in this example, three inventory areas S are set corresponding to each inventory box 11. The designated area T is an area set to a size corresponding to the packaging box 12, and in this example, one designated area T is set corresponding to the packaging box 12. The settings of the inventory area S and designated area T will be described later.

記憶部23は、各種のデータを記憶する記憶媒体であり、ROM(Read Only Memory)、RAM(Random Access Memory)、及びハードディスク等を有する。記憶部23は、制御部24が実行するコンピュータプログラムを記憶する。記憶部23は、後述するように制御部24が演算処理を行う際に参照する各種のデータを記憶している。 The storage unit 23 is a storage medium that stores various data, and includes a ROM (Read Only Memory), a RAM (Random Access Memory), a hard disk, and the like. The storage unit 23 stores a computer program executed by the control unit 24. The storage unit 23 stores various data that the control unit 24 refers to when performing calculation processing, as will be described later.

(制御部24の各機能部)
制御部24は、CPU(Central Processing Unit)を有する。制御部24は、例えば、記憶部23が記憶するコンピュータプログラムを実行することにより、図1に示すように、エリア設定部241、画像取得部242、動作部位検出部243、判定部244、及び出力部245として機能する。
(Each functional unit of the control unit 24)
The control unit 24 includes a CPU (Central Processing Unit). For example, by executing a computer program stored in the storage unit 23, the control unit 24 controls the area setting unit 241, image acquisition unit 242, motion part detection unit 243, determination unit 244, and output as shown in FIG. 245.

エリア設定部241は、在庫エリアS及び指定エリアTを設定するための機能部である。エリア設定部241は、例えば、ユーザが入力部21を用いて指定した範囲を在庫エリアS及び指定エリアTとして受け付け、設定情報を記憶部23に記憶させる。具体的には、ユーザは、例えば、四角形の対角の二点の座標を入力することによって在庫エリアS及び指定エリアTを設定する。 The area setting unit 241 is a functional unit for setting the inventory area S and designated area T. The area setting unit 241 receives, for example, the range specified by the user using the input unit 21 as the inventory area S and the designated area T, and stores the setting information in the storage unit 23. Specifically, the user sets the inventory area S and designated area T, for example, by inputting the coordinates of two diagonal points of a rectangle.

画像取得部242は、カメラ1が生成した撮像画像を取得する。画像取得部242によって取得された撮像画像は、一例として、記憶部23に保存される。 The image acquisition unit 242 acquires a captured image generated by the camera 1. The captured image acquired by the image acquisition unit 242 is stored in the storage unit 23, as an example.

動作部位検出部243は、撮像画像に写っている作業者の動作部位の一例である手の位置を検出する。図4は、作業者の手の画像に基づいて作成された骨格情報を示す図である。動作部位検出部243は、撮像画像に写っている作業者の身体の画像に基づき、骨格情報を作成する。動作部位検出部243は、一例として、作業者の身体に付されたマーカなどを利用することなく、撮像画像に写った身体の画像に基づきリアルタイムで動作部位の三次元的な骨格情報を作成する。 The operating part detection unit 243 detects the position of the hand, which is an example of the operating part of the worker, shown in the captured image. FIG. 4 is a diagram showing skeletal information created based on an image of a worker's hand. The operating part detection unit 243 creates skeletal information based on the image of the worker's body shown in the captured image. For example, the operating part detection unit 243 creates three-dimensional skeletal information of the operating part in real time based on the body image captured in the captured image, without using markers attached to the worker's body. .

「骨格情報」は、例えば、関節や指先などの位置に対応した複数の動作ポイントを含む。図4では、作業者の片手(右手)の複数の動作ポイントのうち、一例として、親指の先端及び親指の関節がそれぞれ動作ポイントP11、P12で示され、人差し指の先端及び人差し指の関節がそれぞれ動作ポイントP21、P22で示されている。 The "skeletal information" includes, for example, a plurality of motion points corresponding to the positions of joints, fingertips, and the like. In FIG. 4, among the plurality of motion points of the worker's one hand (right hand), the tip of the thumb and the joint of the thumb are shown as motion points P11 and P12, respectively, and the tip of the index finger and the joint of the index finger are motion points, respectively. They are indicated by points P21 and P22.

本実施形態では、後述するように、判定部244により、作業者の動作部位が指定エリアTに入っているか否かが検出される。作業者の動作部位が指定エリアTに入っているか否かの検出のためには、動作部位のうち具体的にどの位置が指定エリアTに入っているかを特定する必要がある。そこで、動作部位検出部243は、一例で、骨格情報に基づいて特定した、作業の内容に関連する1以上の動作ポイントの位置に基づいて、作業者の動作部位の位置を検出する。 In this embodiment, the determination unit 244 detects whether the operator's moving part is within the designated area T, as will be described later. In order to detect whether or not the worker's moving part falls within the designated area T, it is necessary to specify which position of the working part falls within the designated area T. Therefore, in one example, the motion part detection unit 243 detects the position of the worker's motion part based on the positions of one or more motion points related to the content of the work, which are identified based on the skeletal information.

具体例として、人差し指と親指とで商品5を持って移動させる作業の場合、動作部位検出部243は動作ポイントP11及び動作ポイントP21の位置に基づいて、作業者の手の位置を検出する。すなわち、動作ポイントP11及び動作ポイントP21が、作業者の手の位置を検出するための基準位置となる。なお、動作部位検出部243は、複数の動作ポイントではなく、動作ポイントP11又は動作ポイントP21のいずれか一方の位置に基づいて手の位置を検出してもよい。 As a specific example, in the case of a work in which the product 5 is held and moved between the index finger and the thumb, the motion part detection unit 243 detects the position of the worker's hand based on the positions of the motion point P11 and the motion point P21. That is, the motion point P11 and the motion point P21 serve as reference positions for detecting the position of the worker's hand. Note that the motion part detection unit 243 may detect the position of the hand based on the position of either the motion point P11 or the motion point P21 instead of the plurality of motion points.

本実施形態では、作業内容に関連する動作ポイントを基準として手の位置が検出されるため、上記のような作業内容の例で言えば、例えば手首の動作ポイントを基準として手の位置を検出する場合と比べて、作業内容に応じたより適切な検出が可能となる。 In this embodiment, the position of the hand is detected based on the motion point related to the work content, so in the above example of the work content, the hand position is detected based on the motion point of the wrist, for example. This makes it possible to perform more appropriate detection depending on the content of the work than in the case of conventional methods.

複数の動作ポイントのうちどの動作ポイントが、対象の作業における動作部位の検出に重要であるかは、作業内容に応じて異なる。例えば、大きな商品を移動させる作業であれば右手と左手のそれぞれの動作ポイントを検出することが好ましく、小さな商品を移動させる作業であれば片手の動作のみ検出すればよいといったことが想定される。 Which motion point among the plurality of motion points is important for detecting a motion part in a target task differs depending on the content of the task. For example, if the task is to move a large product, it is preferable to detect the motion points of each of the right and left hands, and if the task is to move a small product, it is assumed that only the motion of one hand needs to be detected.

そこで、記憶部23は、複数の作業内容と、作業内容に関連する複数の所定の動作ポイントとを関連付けて記憶していてもよい。この場合、動作部位検出部243は、記憶部23を参照し、作業内容に関連する動作ポイントを決定してもよい。具体的には、動作部位検出部243は、ユーザから受け付けた作業内容の入力に応じて、入力された作業内容に関連する動作ポイントを決定してもよい。作業内容は、例えば、所定のグラフィカルユーザインターフェースを介して入力される。作業の内容が、作業管理システムS100によって特定される例については後述する。 Therefore, the storage unit 23 may store a plurality of work contents and a plurality of predetermined operation points related to the work contents in association with each other. In this case, the motion part detection section 243 may refer to the storage section 23 and determine motion points related to the work content. Specifically, the motion part detection unit 243 may determine a motion point related to the input work content in response to the work content input received from the user. The work details are input via a predetermined graphical user interface, for example. An example in which the content of the work is specified by the work management system S100 will be described later.

図5は、記憶部23が記憶する作業内容と動作ポイントとが関連付けられたデータテーブルの一例である。このテーブルでは、作業内容と、対象部位(動作部位)と、動作ポイントとが関連付けられている。「作業内容」は作業の内容の種別を示し、「動作部位」はその作業において検出するべき作業者の身体の部位を示し、その作業において基準とするべき「動作ポイント」は骨格情報に含まれる1つ又は複数の動作ポイントを示す。動作部位検出部243は、一例で、図5のデータテーブルを参照して作業内容に関連した動作ポイントを決定する。 FIG. 5 is an example of a data table stored in the storage unit 23 in which work contents and operation points are associated with each other. In this table, work contents, target parts (motion parts), and motion points are associated with each other. "Work content" indicates the type of work content, "motion part" indicates the part of the worker's body that should be detected in the work, and "motion points" that should be used as a reference in the work are included in the skeletal information. Indicates one or more operating points. The motion part detection unit 243, for example, refers to the data table in FIG. 5 to determine motion points related to the work content.

判定部244は、指定エリアTに作業対象物である商品5が配置されたことを判定する機能部である。判定部244は、指定エリアTが写っている2つの撮像画像の差分に基づいて商品5が配置されたことを判定する。 The determining unit 244 is a functional unit that determines whether the product 5, which is the work target, has been placed in the designated area T. The determination unit 244 determines that the product 5 has been placed based on the difference between the two captured images in which the designated area T is captured.

図6は、判定部244による撮像画像の差分に基づく商品配置の判定を説明するための模式図であり、横軸は時間軸である。判定部244は、作業者の手が指定エリアTに入る前の第1タイミングで撮影された第1撮像画像と、作業者の手が指定エリアTに入った後の第2タイミングで撮影された第2撮像画像とを特定する。判定部244は、具体的には、作業者の手が指定エリアTに入っていない第1タイミングの撮像画像を第1撮像画像として特定する。また、判定部244は、作業者の手が指定エリアTに入っていない第2タイミングの撮像画像を第2撮像画像として特定する。このように、手が写っていない撮像画像を用いることで、手によって商品5が隠れることなく、商品5の有無を良好に判定可能となる。 FIG. 6 is a schematic diagram for explaining the determination of product placement based on the difference between captured images by the determination unit 244, and the horizontal axis is the time axis. The determination unit 244 determines whether the first captured image is captured at a first timing before the worker's hand enters the designated area T, and the first captured image captured at a second timing after the worker's hand enters the designated area T. The second captured image is specified. Specifically, the determination unit 244 identifies the captured image at the first timing in which the hand of the worker does not enter the designated area T as the first captured image. Further, the determination unit 244 identifies the captured image at the second timing in which the hand of the worker does not enter the designated area T as the second captured image. In this way, by using a captured image that does not include the hand, the presence or absence of the product 5 can be satisfactorily determined without the product 5 being hidden by the hand.

手が写っていない撮像画像を特定するために、判定部244は、より具体的には、作業者の手が指定エリアTに入っている所定の基準時刻tから第1設定時間a1だけ前の時刻を第1タイミングと決定するとともに、所定の基準時刻tから第2設定時間a2だけ後の時刻を第2タイミングと決定する。このように指定エリアTに手が入っている基準時刻tに対して所定の時間的なマージンを持たせたタイミングを第1タイミング及び第2タイミングとすることで、複雑な画像処理を必要とせずに、第1タイミング及び第2タイミングを決定できる。 In order to identify a captured image that does not include a hand, the determination unit 244 specifies that the operator's hand has entered the specified area T by a first set time a1 before a predetermined reference time t. The time is determined as the first timing, and the time after the second set time a2 from the predetermined reference time t is determined as the second timing. In this way, by setting the first and second timings to be timings with a predetermined time margin with respect to the reference time t when the hand is in the designated area T, complicated image processing is not required. Therefore, the first timing and the second timing can be determined.

「所定の基準時刻t」は、作業者の手が指定エリアT内に入っている時間帯のうちの任意のタイミングであり、例えば、判定部244が撮像画像に基づいて決定する。一例として、判定部244は、作業者の手が指定エリアTに入ったことを検出し、続いて、作業者の手が指定エリアTから出たことを検出した場合に、作業者の手が指定エリアTに入った時刻と、作業者の手が指定エリアTから出た時刻との間の時間の任意のタイミングを基準時刻tとして決定する。 The "predetermined reference time t" is an arbitrary timing within the time period when the worker's hand is within the designated area T, and is determined by the determination unit 244 based on the captured image, for example. As an example, when the determination unit 244 detects that the worker's hand has entered the designated area T, and subsequently detects that the worker's hand has left the designated area T, the determination unit 244 determines that the worker's hand has entered the designated area T. An arbitrary timing between the time when the worker's hand enters the designated area T and the time when the worker's hand leaves the designated area T is determined as a reference time t.

ところで、指定エリアTに対してどのようなタイミングで作業者の手が入り、どのようなタイミングで手が指定エリアTの外に出るかは、例えば、作業の内容や指定エリアTの大きさに依存する。そこで、作業管理装置2は、第1設定時間a1及び第2設定時間a2をユーザが入力し、それにより第1タイミング及び第2タイミングを変更できるように構成されていてもよい。具体的には、判定部244は、ユーザが入力した第1設定時間a1及び第2設定時間a2の時間を受け付け、受け付けた第1設定時間a1及び第2設定時間a2を用いて第1タイミング及び第2タイミングを決定する。 By the way, at what timing the worker's hand enters the designated area T and at what timing the hand moves out of the designated area T depends on, for example, the content of the work and the size of the designated area T. Dependent. Therefore, the work management device 2 may be configured such that the user can input the first set time a1 and the second set time a2, thereby changing the first timing and the second timing. Specifically, the determination unit 244 receives the first set time a1 and second set time a2 input by the user, and uses the received first set time a1 and second set time a2 to determine the first timing and the second set time a2. Determine the second timing.

また、記憶部23が、複数の作業の内容に関連付けて複数の第1設定時間a1及び第2設定時間a2を記憶しており、判定部244は、記憶部23を参照して、作業内容に応じた第1設定時間a1及び第2設定時間a2を決定してもよい。作業内容は、ユーザによって入力されたものであってもよいし、作業管理装置2が撮像画像に基づいて推定したものであってもよい。 Further, the storage unit 23 stores a plurality of first set times a1 and second set times a2 in association with the content of a plurality of tasks, and the determination unit 244 refers to the storage unit 23 to The first set time a1 and second set time a2 may be determined accordingly. The work content may be input by the user, or may be estimated by the work management device 2 based on the captured image.

(差分演算処理)
判定部244は、上記の処理によって特定した第1タイミングの第1撮像画像と、第2タイミングの第2撮像画像とを差分演算処理し、差分が所定の閾値以上の場合に、指定エリアTに商品5が配置されたと判定する。判定部244は、具体的には、一例で、第1撮像画像における指定エリアTの画像と、第2撮像画像における指定エリアTの画像との差分を求める。このような処理によれば、例えば商品5が梱包箱12に正しく置かれた場合には、差分が所定の閾値以上となり、判定部244は指定エリアTに商品5が配置されたことを検出できる。
(difference calculation processing)
The determination unit 244 performs a difference calculation process on the first captured image at the first timing and the second captured image at the second timing identified by the above processing, and when the difference is greater than or equal to a predetermined threshold, It is determined that product 5 has been placed. Specifically, as an example, the determination unit 244 determines the difference between the image of the specified area T in the first captured image and the image of the specified area T in the second captured image. According to such processing, for example, when the product 5 is placed correctly in the packaging box 12, the difference becomes greater than or equal to a predetermined threshold, and the determination unit 244 can detect that the product 5 is placed in the designated area T. .

差分は、例えば第1タイミングの第1撮像画像と第2撮像画像とで画素値が異なる画素数により表され、所定の閾値は、商品5の大きさに対応する画素数に基づいて定められている。所定の閾値は、例えば、商品5の大きさに対応する画素数として想定される画素数の最小値である。 The difference is expressed, for example, by the number of pixels with different pixel values between the first captured image and the second captured image at the first timing, and the predetermined threshold value is determined based on the number of pixels corresponding to the size of the product 5. There is. The predetermined threshold is, for example, the minimum number of pixels that is assumed to correspond to the size of the product 5.

出力部245は、制御部24が演算処理した各種の情報を出力する機能部である。出力部245は、例えば表示部22に各種の情報を表示させる。出力部245は、また、ネットワークを介して接続された不図示の外部の機器に各種の情報を出力してもよい。 The output unit 245 is a functional unit that outputs various information processed by the control unit 24. The output unit 245 causes the display unit 22 to display various information, for example. The output unit 245 may also output various types of information to an external device (not shown) connected via a network.

出力部245は、一例として、作業者の作業をカメラ1が撮影して生成した撮像画像を表示部22に出力する。上述したように本実施形態では動作部位検出部243が、作業者の手の骨格情報を作成する。出力部245は、例えば、骨格情報に含まれる動作ポイント及び動作ポイントどうしを接続する線を、作業者の手の画像に重畳させて表示させてもよい。 For example, the output unit 245 outputs to the display unit 22 a captured image generated by capturing the worker's work with the camera 1. As described above, in this embodiment, the motion part detection unit 243 creates the skeleton information of the worker's hand. For example, the output unit 245 may display motion points included in the skeleton information and lines connecting the motion points in a superimposed manner on the image of the worker's hand.

出力部245は、また、骨格情報に含まれる動作ポイントのうち、対象の作業内容に関連の高い動作ポイントを優先的に表示させ、それ以外は表示させないようにしてもよい。図3では、作業者の手の骨格情報に含まれる動作ポイントのうち動作ポイントP11及び動作ポイントP21が表示され、その他の動作ポイントについては画面上に表示されていない。出力部245は、このように、複数の動作ポイントのうち所定の動作ポイントを、作業者の身体の画像における動作ポイントに対応する身体の部位に重畳させて表示させてもよい。複数の動作ポイントのうちどの動作ポイントを表示させるかは、出力部245が、作業者が行う作業の内容に関連する動作ポイントを特定し、特定した動作ポイントを表示させてもよい。 The output unit 245 may also preferentially display, among the motion points included in the skeleton information, motion points that are highly relevant to the target work content, and may not display the others. In FIG. 3, among the motion points included in the worker's hand skeleton information, motion points P11 and P21 are displayed, and the other motion points are not displayed on the screen. In this way, the output unit 245 may display a predetermined motion point out of the plurality of motion points in a superimposed manner on the body part corresponding to the motion point in the image of the worker's body. Regarding which of the plurality of motion points to display, the output unit 245 may specify a motion point related to the content of the work performed by the worker, and display the specified motion point.

出力部245は、また、判定部244の判定結果を出力する。出力部245は、例えば、指定エリアTに商品5が配置されたことを示す通知を出力する。出力部245は、具体的には、それぞれの商品5を識別する画像識別機能を有し、指定エリアTの配置された商品5を識別した結果を出力してもよい。 The output unit 245 also outputs the determination result of the determination unit 244. The output unit 245 outputs, for example, a notification indicating that the product 5 has been placed in the designated area T. Specifically, the output unit 245 has an image identification function for identifying each product 5, and may output the result of identifying the product 5 placed in the designated area T.

(作業管理システムS100の動作の一例)
以上のように構成された作業管理システムS100の動作について説明する。図7は、作業管理システムS100の動作の一例のフローチャートである。なお、作業管理システムS100の動作の開始の時点で、作業管理装置2では、在庫箱11及び梱包箱12に対応する位置に在庫エリアS及び指定エリアTが設定されているものとする。また、作業者が行う作業の内容が一例としてユーザによって既に入力されているものとする。
(Example of operation of work management system S100)
The operation of the work management system S100 configured as above will be explained. FIG. 7 is a flowchart of an example of the operation of the work management system S100. It is assumed that, at the start of the operation of the work management system S100, in the work management device 2, an inventory area S and a designated area T are set at positions corresponding to the inventory boxes 11 and packaging boxes 12. Further, it is assumed that the content of the work to be performed by the worker has already been input by the user, as an example.

まず、ステップS1において、カメラ1が作業者の作業を連続的に撮影して撮像画像を生成し、画像取得部242がその撮像画像を取得する。 First, in step S1, the camera 1 continuously photographs the work of the worker to generate captured images, and the image acquisition unit 242 acquires the captured images.

次いで、ステップS2において、動作部位検出部243が撮像画像に写った作業者の身体の画像に基づき作業者の手の三次元的な骨格情報を作成する。動作部位検出部243は、また、ユーザによって入力された作業の内容に基づき、図5に例示するデータテーブルを参照して、対象の作業内容に関連する動作ポイントを特定する。ここでは、一例として、作業者の片手の動作ポイントP11及び動作ポイントP12が特定される。 Next, in step S2, the operating part detection unit 243 creates three-dimensional skeletal information of the worker's hand based on the image of the worker's body captured in the captured image. Based on the content of the work input by the user, the motion part detection unit 243 also refers to the data table illustrated in FIG. 5 to identify motion points related to the target work content. Here, as an example, a motion point P11 and a motion point P12 of one hand of the worker are specified.

判定部244は、動作ポイントP11及び動作ポイントP12の位置に基づき、作業者の手が指定エリアTに入ったか否かを判定する。このステップS2の判定がNoの場合、判定部244はステップS1及びステップS2の処理を繰り返す。 The determination unit 244 determines whether the worker's hand has entered the designated area T based on the positions of the motion point P11 and the motion point P12. If the determination in step S2 is No, the determination unit 244 repeats the processing in step S1 and step S2.

ステップS2の判定がYesの場合、次いでステップS3において、判定部244は、動作ポイントP11及び動作ポイントP12の位置に基づき、作業者の手が指定エリアTから出たか否かを判定する。このステップS3の判定がNoの場合、判定部244はステップS3の処理を繰り返す。 If the determination in step S2 is Yes, then in step S3, the determination unit 244 determines whether the worker's hand has come out of the designated area T based on the positions of the motion point P11 and the motion point P12. If the determination in step S3 is No, the determination unit 244 repeats the process in step S3.

ステップS3の判定がYesの場合、次いでステップS4において、判定部244は、例えば、作業者の手が指定エリアTに入った時刻と指定エリアTから出た時刻とに基づき、作業者の手が指定エリアTに入っている基準時刻t(図6参照)を特定する。そして、判定部244は、予め設定された第1設定時間a1だけ前の時刻を前記第1タイミングと決定するとともに、所定の基準時刻tから第2設定時間a2だけ後の時刻を第2タイミングと決定する。判定部244は、決定した第1タイミング及び第2タイミングに応じた第1撮像画像及び第2撮像画像と特定する。 If the determination in step S3 is Yes, then in step S4, the determining unit 244 determines, for example, based on the time when the worker's hand entered the designated area T and the time when the worker's hand left the designated area T. A reference time t (see FIG. 6) within the designated area T is specified. Then, the determination unit 244 determines a time a preset first time a1 before as the first timing, and a time after a second set time a2 from a predetermined reference time t as the second timing. decide. The determining unit 244 identifies the first captured image and the second captured image according to the determined first timing and second timing.

次いで、ステップS5において、判定部244は上記ステップで特定した第1撮像画像と第2撮像画像とを差分演算処理する。そして、ステップS6において、差分演算処理の結果、差分が所定の閾値以上の場合には、判定部244は指定エリアTに商品5が配置されたと判定し、出力部245はその結果を出力する。差分が所定の閾値未満の場合、判定部244は、指定エリアTに商品5が配置されていないと判定し、出力部245はその結果を出力する。 Next, in step S5, the determination unit 244 performs a difference calculation process on the first captured image and the second captured image identified in the above step. Then, in step S6, if the difference is greater than or equal to a predetermined threshold as a result of the difference calculation process, the determination unit 244 determines that the product 5 is placed in the designated area T, and the output unit 245 outputs the result. If the difference is less than a predetermined threshold, the determination unit 244 determines that the product 5 is not placed in the specified area T, and the output unit 245 outputs the result.

以上一連の動作により、作業管理システムS100は、作業者が在庫箱11から取り出した商品5が梱包箱12に配置されたことを判定することができる。 Through the series of operations described above, the work management system S100 can determine that the product 5 that the worker took out from the inventory box 11 has been placed in the packaging box 12.

なお、以上、図7のフローチャートに従って作業管理システムS100の具体的な動作例を説明したが、本発明は、上述した具体的な処理の内容や順番に限定されるものではなく、本発明の趣旨の範囲内で処理内容や処理の順番は適宜変更されてよい。 Note that although a specific example of the operation of the work management system S100 has been described above according to the flowchart of FIG. 7, the present invention is not limited to the content or order of the specific processing described above; The processing contents and processing order may be changed as appropriate within the range.

(作用効果)
以上説明したように、本実施形態の構成では、作業管理装置2は、作業者の手が指定エリアTに入る前のタイミングで撮影された第1撮像画像と、作業者の手がその指定エリアTに入った後のタイミングで撮影された第2撮像画像との差分に基づいて、梱包箱12に商品5が配置されたことを判定する。
(effect)
As explained above, in the configuration of the present embodiment, the work management device 2 uses the first captured image taken at the timing before the worker's hand enters the designated area T, and the first captured image taken before the worker's hand enters the designated area T. It is determined that the product 5 has been placed in the packaging box 12 based on the difference with the second captured image taken at the timing after entering T.

作業者の手が指定エリアTに入ったことに基づいて商品5が梱包箱12に配置されたと判定をする方式では、例えば、作業者の手が指定エリアTを単に通過しただけで、商品5が置かれない場合に、商品5が梱包箱12に配置されたことを正しく判定することができない。 In a method that determines that the product 5 has been placed in the packaging box 12 based on the worker's hand entering the designated area T, for example, if the worker's hand simply passes through the designated area T, the product 5 If the product 5 is not placed in the packaging box 12, it cannot be correctly determined that the product 5 has been placed in the packaging box 12.

これに対して、本実施形態の作業管理装置2では、指定エリアTに作業者の手が入っている状態の前後の2つの撮像画像を用い、それらの撮像画像の差分に基づいて商品5が配置されたことを判定するため、商品5が梱包箱12に配置されたことを精度よく判定できる。 In contrast, the work management device 2 of the present embodiment uses two captured images before and after the worker's hand is in the designated area T, and determines the product 5 based on the difference between these captured images. Since it is determined that the product 5 has been placed in the packaging box 12, it can be determined with high accuracy that the product 5 has been placed in the packaging box 12.

特に、判定部244が、作業者の手が指定エリアTに入っていないタイミングの撮像画像を第1撮像画像及び第2撮像画像として特定するため、商品5が作業者野手によって隠れることがなく、商品5が配置されたことを精度よく判定することが可能となる。 In particular, since the determining unit 244 identifies captured images at a time when the worker's hand does not enter the specified area T as the first captured image and the second captured image, the product 5 is not hidden by the worker's fielder. It becomes possible to accurately determine whether the product 5 has been placed.

また、判定部244が、作業者の手が指定エリアTに入っている所定の基準時刻tを基準に、第1設定時間a1及び第2設定時間a2(図6)を用いて第1撮像画像及び第2の撮像画像のタイミングを決定するため、複雑な画像処理を必要とせずに、第1タイミング及び第2タイミングを決定できる。 Further, the determination unit 244 uses the first set time a1 and the second set time a2 (FIG. 6) based on a predetermined reference time t when the worker's hand enters the designated area T to obtain a first captured image. Since the timing of the second captured image and the second captured image are determined, the first timing and the second timing can be determined without requiring complicated image processing.

<変形例1>
上記実施形態では、指定エリアTが1つのみの例を説明したが、作業管理システムS100は、複数の指定エリアTのうちのいずれかに作業者の動作部位が入ったことを検出してもよい。このようなシステムは、例えば、サイズが異なる複数の梱包箱12が配置されており、作業者が、それぞれの梱包箱12に所定の商品5を入れるような作業に好適に利用することができる。
<Modification 1>
In the above embodiment, an example in which there is only one designated area T has been described, but the work management system S100 can also good. Such a system can be suitably used, for example, when a plurality of packaging boxes 12 of different sizes are arranged, and an operator places a predetermined product 5 into each packaging box 12.

図8は、カメラが撮影した撮像画像と、画像上に表示された複数の在庫エリア及び複数の指定エリアとを示す図である。図8の例では、複数の梱包箱12に応じて複数の指定エリアT1、T2(単に指定エリアTともいう)が設定されている。図8のように、サイズが異なる複数の梱包箱12が存在する場合、それに対応して、例えば大きい指定エリアT1と小さい指定エリアT2とが存在することとなる。作業者の手が指定エリアTに入っている時間は、作業の内容にもよるものの、指定エリアTの大きさにも関連する。そこで、本発明の一形態においては、判定部244は、指定エリアごとに第1タイミング及び第2タイミングを決定してもよい。 FIG. 8 is a diagram showing a captured image taken by a camera, and a plurality of inventory areas and a plurality of designated areas displayed on the image. In the example of FIG. 8, a plurality of designated areas T1 and T2 (also simply referred to as designated area T) are set according to a plurality of packaging boxes 12. As shown in FIG. 8, when there are a plurality of packaging boxes 12 of different sizes, for example, a large designated area T1 and a small designated area T2 will exist correspondingly. The time that the worker's hand is in the designated area T depends on the content of the work, but is also related to the size of the designated area T. Therefore, in one embodiment of the present invention, the determination unit 244 may determine the first timing and the second timing for each designated area.

判定部244は、例えば、ユーザから受け付けた入力(例えば第1設定時間a1及び第2設定時間a2)に応じてそれぞれの指定エリアTに対する第1タイミング及び第2タイミングを決定してもよい。他の態様として、判定部244は、作業の内容、及び、指定エリアTの大きさの少なくともいずれかのパラメータに基づき、それぞれの指定エリアTに対する第1タイミング及び第2タイミングを決定してもよい。 The determination unit 244 may determine the first timing and second timing for each designated area T, for example, according to inputs received from the user (for example, the first set time a1 and the second set time a2). As another aspect, the determination unit 244 may determine the first timing and second timing for each designated area T based on at least one parameter of the content of the work and the size of the designated area T. .

なお、指定エリアTの大きさは、ユーザによって入力されてもよいし、作業管理装置2が例えば画像解析により特定してもよい。具体的には、一例として判定部244が、撮像画像に映っているそれぞれの梱包箱12を識別し、梱包箱12の輪郭線に沿うような範囲を指定エリアTとして特定してもよい。判定部244は、ソータやベルトコンベア等の搬送手段上を移動する対象物(一例で梱包箱12)について、画像解析により動的に対象物の大きさを識別して指定エリアTを特定するものであってもよい。なお、判定部244ではなく、エリア設定部241が上記のような処理を行ってもよい。 Note that the size of the designated area T may be input by the user, or may be specified by the work management device 2, for example, by image analysis. Specifically, as an example, the determination unit 244 may identify each packaging box 12 shown in the captured image, and specify a range along the outline of the packaging box 12 as the designated area T. The determination unit 244 dynamically identifies the size of an object (packing box 12, for example) moving on a conveyance means such as a sorter or a belt conveyor by image analysis, and specifies the designated area T. It may be. Note that the area setting unit 241 may perform the above processing instead of the determination unit 244.

判定部244又はエリア設定部241が行う上記のような指定エリアTの特定に関し、判定部244又はエリア設定部241は、所定の対象物の指定エリアTを一旦特定した後、再度、対象物の画像に基づいて指定エリアTを特定し直してもよい。例えば、作業中に作業者の手が梱包箱12に当たって梱包箱12の位置が移動することが想定される。この場合に、判定部244又はエリア設定部241が指定エリアTを再度特定することで、作業管理装置2は梱包箱12の位置に応じた正しい位置の指定エリアTを設定することが可能となる。 Regarding the specification of the designated area T as described above performed by the determination unit 244 or the area setting unit 241, the determination unit 244 or the area setting unit 241 once specifies the designated area T of the predetermined object, and then re-identifies the designated area T of the object. The designated area T may be respecified based on the image. For example, it is assumed that the worker's hand hits the packaging box 12 during work and the position of the packaging box 12 moves. In this case, the determination unit 244 or the area setting unit 241 specifies the designated area T again, so that the work management device 2 can set the designated area T at the correct position according to the position of the packaging box 12. .

判定部244は、具体的には、作業の内容、及び、指定エリアTの大きさの少なくともいずれかに関連付けて、複数の第1設定時間a1及び第2設定時間a2を記憶する記憶部を参照して、それぞれの指定エリアTに対する第1タイミング及び第2タイミングを決定してもよい。 Specifically, the determination unit 244 refers to a storage unit that stores a plurality of first set times a1 and second set times a2 in association with at least one of the content of the work and the size of the designated area T. Then, the first timing and second timing for each designated area T may be determined.

このような構成によれば、例えば指定エリアTの大きさに応じて、それぞれの指定エリアTの第1タイミング及び第2タイミングが決定されるので、指定エリアTに手が入っていない可能性の高い撮像画像を好適に特定できる。その結果、撮像画像の差分に基づく商品の配置を高精度に実施可能となる。 According to such a configuration, the first timing and second timing of each designated area T are determined according to the size of the designated area T, for example, so that the possibility that the designated area T has not been touched is eliminated. High-quality captured images can be suitably identified. As a result, it becomes possible to place products with high precision based on the difference between the captured images.

<変形例2>
図9は、本発明の実施形態の変形例の構成を示すブロック図である。上記実施形態では、作業管理装置2が、ユーザによって入力された作業内容に基づいて、種々の処理を行うことを説明した。しかし、図9に示すように、作業管理装置2に設けられた作業特定部246が、作業の内容を特定してもよい。図9において、作業管理装置2の制御部24が作業特定部246を有する点以外は、作業管理システムS100の構成は第1の実施形態と同様であるため、重複する説明は省略する。
<Modification 2>
FIG. 9 is a block diagram showing the configuration of a modified example of the embodiment of the present invention. In the above embodiment, it has been explained that the work management device 2 performs various processes based on the work content input by the user. However, as shown in FIG. 9, the work specifying unit 246 provided in the work management device 2 may specify the content of the work. In FIG. 9, the configuration of the work management system S100 is the same as that of the first embodiment, except that the control unit 24 of the work management device 2 includes a work specifying unit 246, so a duplicate explanation will be omitted.

作業特定部246は、作業者が行っている作業の内容を特定するための機能部である。作業特定部246は、例えば、動作部位検出部243が作成した作業者の身体の骨格情報が示す動きに基づいて、作業者が行う作業の内容を特定する。作業特定部246は、動作部位検出部243が作成した骨格情報の所定の動作ポイントの移動パターンに基づき、例えば、動作ポイントの複数の移動パターンとそれに対応する複数の作業の内容とを関連付けて記憶する記憶部23を参照し、作業の内容を特定してもよい。「移動パターン」は、例えば、動作ポイントが移動する速さ、及び/又は、動作ポイントが指定エリアT内に滞在している時間に関連するものであってもよい。 The work specifying unit 246 is a functional unit for specifying the content of the work that the worker is doing. The work identifying unit 246 identifies the content of the work performed by the worker, for example, based on the movement indicated by the skeletal information of the worker's body created by the motion part detecting unit 243. Based on the movement pattern of a predetermined movement point of the skeleton information created by the movement part detection unit 243, the work specifying unit 246 stores, for example, a plurality of movement patterns of the movement point and a plurality of corresponding contents of the work in association with each other. The content of the work may be specified by referring to the storage unit 23 for the work. The "movement pattern" may be related to, for example, the speed at which the operating point moves and/or the time that the operating point stays within the specified area T.

動作部位検出部243は、このように作業特定部246が特定した作業内容に関連する動作ポイントの位置に基づいて、第1の実施形態で説明したように、動作部位の位置を検出する。 The operating part detection unit 243 detects the position of the operating part, as described in the first embodiment, based on the position of the operating point related to the work content specified by the work specifying unit 246 in this way.

このように、作業管理装置2が作業者の手である動作部位の動きに基づいて作業内容を特定し、特定した作業内容の関連する動作ポイントを基準として、動作部位の位置を検出する構成によれば、ユーザが作業内容を入力することなく、作業内容が特定でき、しかも、その作業内容に応じて適切な動作ポイントの位置に基づいて作業者の動作部位が検出される。その結果、作業内容に応じた好適なタイミングの撮像画像で差分演算処理が行われ、商品5が配置されたことを精度よく判定可能となる。 In this way, the work management device 2 is configured to specify the work content based on the movement of the working part of the worker's hand, and detect the position of the working part based on the relevant action point of the specified work content. According to the invention, the content of the work can be specified without the user inputting the content of the work, and moreover, the movement part of the worker is detected based on the position of the movement point appropriate according to the content of the work. As a result, the difference calculation process is performed on the captured images at a suitable timing according to the content of the work, and it becomes possible to accurately determine whether the product 5 has been placed.

<変形例3>
上記実施形態では、作業者の手が指定エリアTに入っている所定の基準時刻t(図6参照)の前後のタイミングで撮像された第1撮像画像及び第2撮像画を用いることを説明した。しかし、判定部244は、例えば、作業者が在庫箱11から商品5を取ったタイミングをトリガとして、差分演算処理に使用される第1撮像画像及び第2撮像画を特定してもよい。
<Modification 3>
In the above embodiment, it has been explained that the first captured image and the second captured image are captured at timings before and after the predetermined reference time t (see FIG. 6) when the worker's hand enters the designated area T. . However, the determination unit 244 may specify the first captured image and the second captured image to be used in the difference calculation process, for example, using the timing when the worker takes the product 5 from the inventory box 11 as a trigger.

具体的には、判定部244は、商品5が配置された対象物配置エリアである在庫箱11から作業者が商品5をピックアップしたことを検出する検出手段からの出力を受信した受信タイミングを第1タイミングとしてもよい。検出手段は、例えば在庫箱11の重量を測定する装置、又は作業者の手の動きを検出する赤外線センサーである。第1タイミングは、検出手段からの出力を受信したタイミングに厳密に限定されず、一例として、判定部244は、受信タイミングよりも所定時間だけ前若しくは後のタイミングを、第1タイミングとしてもよい。 Specifically, the determination unit 244 sets the reception timing at which the output from the detection means for detecting that the worker has picked up the product 5 from the inventory box 11, which is the object placement area where the product 5 is placed, as the first timing. It may be one timing. The detection means is, for example, a device that measures the weight of the inventory box 11 or an infrared sensor that detects the movement of the worker's hand. The first timing is not strictly limited to the timing at which the output from the detection means is received; for example, the determination unit 244 may set the first timing to be a timing that is a predetermined time earlier or later than the reception timing.

第1タイミング及び/又は第2タイミングの決定には、在庫箱11から指定エリアTまでの距離が考慮されてもよい。そこで、判定部244は、在庫箱11と指定エリアTとの距離に基づいて、第1タイミング及び/又は第2タイミングを決定してもよい。具体的には、判定部244は、複数の在庫箱11と指定エリアTとの距離と、複数の第1タイミング及び/又は第2タイミングとを関連付けて記憶する記憶部を参照して、第1タイミング及び/又は第2タイミングを決定してもよい。 In determining the first timing and/or the second timing, the distance from the inventory box 11 to the designated area T may be taken into consideration. Therefore, the determination unit 244 may determine the first timing and/or the second timing based on the distance between the inventory box 11 and the designated area T. Specifically, the determination unit 244 refers to the storage unit that stores the distances between the plurality of inventory boxes 11 and the specified area T and the plurality of first timings and/or second timings in association with each other, and determines the first timing. The timing and/or the second timing may be determined.

例えば、判定部244が、上記検出手段からの出力を受信した受信タイミングよりも所定時間だけ後のタイミングを第1タイミングと決定する構成において、在庫箱11と指定エリアTとの間の距離が長い場合には一例として受信タイミングの「3秒後」が第1タイミングとされ、在庫箱11と指定エリアTとの間の距離が短い場合には一例として受信タイミングの「0.5秒後」が第1タイミングとされるといったように、判定部244は、在庫箱11と指定エリアTとの間の距離が長いほど、受信タイミングからより長い時間の経過後を第1タイミングと決定してもよい。 For example, in a configuration in which the determination unit 244 determines a timing that is a predetermined time later than the reception timing at which the output from the detection means is received as the first timing, the distance between the inventory box 11 and the designated area T is long. If the distance between the inventory box 11 and the specified area T is short, the first timing is, for example, "3 seconds after the reception timing", and if the distance between the inventory box 11 and the designated area T is short, the first timing is "0.5 seconds after the reception timing", for example. The determining unit 244 may determine the first timing to be the first timing, the longer the distance between the inventory box 11 and the specified area T is, the longer the time has elapsed from the reception timing. .

以上、本発明の具体的な構成について実施形態及び変形例として説明したが、本発明は上記に限定される種々変更可能である。例えば、本実施形態における作業は、作業者が、商品5を在庫箱11である箱から梱包箱12である箱に移動させる作業であったが、在庫である商品5が配置されている場所は箱に限定されず、例えば棚であってもよい。また、商品5は箱に入れられるのではなく、例えば所定の仕分けトレイに入れられてもよい。 Although the specific configuration of the present invention has been described above as embodiments and modified examples, the present invention is limited to the above and can be modified in various ways. For example, in the work in this embodiment, the worker moves the product 5 from the inventory box 11 to the packaging box 12, but the location where the inventory product 5 is placed is It is not limited to a box, but may be a shelf, for example. Furthermore, instead of being placed in a box, the products 5 may be placed in a predetermined sorting tray, for example.

本発明の作業管理システムは、商品の仕分け作業以外にも、例えば部品の組立て作業などにも利用可能である。作業管理システムS100は、作業者の手以外の身体の部位を動作部位として検出してもよい。ここで、「作業者の動作部位」は、文字通り、作業者の身体の一部であってもよいが、作業の内容によっては、作業者が使用する工具、道具又は治具といった検出対象物を作業管理システムS100で検出した方が良いことも想定される。そこで、作業管理装置2は、動作部位として、作業者が使用する工具、道具又は治具といった検出対象物を検出し、その検出結果に基づいて上述したような各種の処理を実施してもよい。 The work management system of the present invention can be used not only for sorting products but also for assembling parts, for example. Work management system S100 may detect a body part other than the worker's hand as a working part. Here, the "worker's operating part" may literally be a part of the worker's body, but depending on the content of the work, it may also include objects to be detected such as tools, implements, or jigs used by the worker. It is also assumed that it is better to detect it using the work management system S100. Therefore, the work management device 2 may detect a detection target such as a tool, tool, or jig used by a worker as an operating part, and may perform various processes as described above based on the detection result. .

部品の組立て作業においては、部品が特定の位置に取り付けられたことが正しく判定されることが望ましい。そこで、第1の実施形態と同様、動作部位検出部243によって検出された作業者の動作部位が所定の指定エリアに入る前の第1タイミングで撮影された第1撮像画像と、同指定エリアに入った後の第2タイミングで撮影された第2撮像画像との差分が所定の閾値以上の場合に、判定部244は部品が所定の位置に配置されたと判定してもよい。部品の取付においては、単に、部品の有無を検出するだけではなく、判定部244は、例えば、撮像画像の差分に基づいて部品の位置を特定してもよい。 When assembling parts, it is desirable to correctly determine that the parts have been attached to a specific position. Therefore, similarly to the first embodiment, the first captured image taken at the first timing before the worker's movement part detected by the movement part detection unit 243 enters a predetermined designated area, and If the difference between the part and the second captured image taken at the second timing after the component is inserted is equal to or greater than a predetermined threshold, the determination unit 244 may determine that the component is placed at a predetermined position. When attaching a component, the determination unit 244 may not only simply detect the presence or absence of the component, but may also specify the location of the component based on the difference between captured images, for example.

作業管理装置2の判定部244は、作業者の動作部位の移動パターンとその作業の移動パターンに対応する作業内容とが関連付けられた教師データを学習することによって、移動パターンが入力された場合に作業内容を出力する学習済モデルを含み、その学習済モデルによって作業内容を推定するものであってもよい。 The determination unit 244 of the work management device 2 learns training data in which the movement pattern of the worker's movement part and the work content corresponding to the movement pattern of the work are associated with each other. It may include a learned model that outputs the work content, and the work content may be estimated using the learned model.

<変形例4>
図8に例示したように、商品5が入れられる梱包箱12が複数あるような場合、作業者が商品5を入れるべき梱包箱12を間違えるおそれがある。そこで、例えば判定部244は、それぞれの梱包箱12に対応する指定エリアTに配置された商品5を識別する機能を有し、目的の指定エリアTに所望の商品5が配置されたかを検出してもよい。判定部244は、例えば、記憶部23が記憶している、どの商品5をどの指定エリアTに配置するべきかを示す商品分配情報を参照し、対象の指定エリアTに所望の商品5が配置されたかを検出する。
<Modification 4>
As illustrated in FIG. 8, when there are a plurality of packaging boxes 12 into which the product 5 can be placed, there is a risk that the operator may make a mistake in the packaging box 12 into which the product 5 should be placed. Therefore, for example, the determination unit 244 has a function of identifying the product 5 placed in the designated area T corresponding to each packaging box 12, and detects whether the desired product 5 is placed in the target designated area T. You can. For example, the determination unit 244 refers to product distribution information stored in the storage unit 23 that indicates which product 5 should be placed in which specified area T, and determines whether the desired product 5 is placed in the target specified area T. detect whether

一例として、指定エリアT1(図8参照)に配置するべき商品5が、指定エリアT2に配置されていることを判定部244が検出した場合、判定部244は、作業者の手が入った指定エリアT1と、作業者の手が入った指定エリアT2との両方について、第1の実施形態のように第1タイミングの撮像画像と第2タイミングの撮像画像とを特定し、それらの画像の差分演算処理を行ってもよい。 As an example, when the determining unit 244 detects that the product 5 to be placed in the designated area T1 (see FIG. 8) is placed in the designated area T2, the determining unit 244 determines that the product 5 that should be placed in the designated area T1 (see FIG. 8) is placed in the designated area T2. For both the area T1 and the designated area T2 where the worker's hand has entered, the captured image at the first timing and the captured image at the second timing are identified as in the first embodiment, and the difference between these images is determined. Arithmetic processing may also be performed.

判定部244は、差分演算処理の結果に基づいて、商品5がどの指定エリアTに配置されたか(又は配置されていないか)を特定してもよい。また、判定部244は、指定エリアT2内のどの位置に誤って配置された商品5が存在するかを特定しても良い。 The determination unit 244 may specify in which designated area T the product 5 is placed (or not placed) based on the result of the difference calculation process. Further, the determination unit 244 may specify at which position within the specified area T2 the incorrectly placed product 5 is located.

出力部245は、上記の特定結果を一例として表示部22に出力する。出力部245が特定結果を出力する態様は特定の態様に限定されるものではないが、一例として、出力部245は、判定部244が特定した、誤って配置された商品5の位置を示す画像情報又は文字情報を表示部22に表示させてもよい。具体的には、例えば出力部245は、誤って配置された商品5が存在している梱包箱12に対して画像又はテキスト等を投影することで、作業者に対して、商品5が誤って配置されていること、及び/又は、その商品5の位置を知らせてもよい。 The output unit 245 outputs the above identification result to the display unit 22 as an example. Although the manner in which the output unit 245 outputs the identification result is not limited to a specific manner, as an example, the output unit 245 outputs an image indicating the position of the incorrectly placed product 5 identified by the determination unit 244. Information or text information may be displayed on the display unit 22. Specifically, for example, the output unit 245 projects an image, text, etc. onto the packaging box 12 in which the incorrectly placed product 5 is located, thereby informing the worker that the product 5 is incorrectly placed. It may be possible to inform the user that the product 5 is placed and/or the location of the product 5.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist. be. For example, all or part of the device can be functionally or physically distributed and integrated into arbitrary units. In addition, new embodiments created by arbitrary combinations of multiple embodiments are also included in the embodiments of the present invention. The effects of the new embodiment resulting from the combination have the effects of the original embodiment.

以上の説明では、作業管理装置の発明を中心として説明を行ったが、本明細書は、上記の技術的思想を方法の発明及びコンピュータプログラムの発明として表現したものも開示する。具体的には、本明細書は、画像取得ステップと、動作部位検出ステップと、判定ステップと、出力ステップとを有する作業管理方法を開示する。 Although the above description has focused on the invention of a work management device, this specification also discloses the invention of the above technical idea expressed as an invention of a method and an invention of a computer program. Specifically, this specification discloses a work management method that includes an image acquisition step, a motion part detection step, a determination step, and an output step.

1 カメラ
2 作業管理装置
11 在庫箱
12 梱包箱
21 入力部
22 表示部
23 記憶部
24 制御部
241 エリア設定部
242 画像取得部
243 動作部位検出部
244 判定部
245 出力部
246 作業特定部
a1 第1設定時間
a2 第2設定時間
P11 動作ポイント
P12 動作ポイント
P21 動作ポイント
P22 動作ポイント
S 在庫エリア
t 基準時刻
T、T1、T2 指定エリア


1 Camera 2 Work management device 11 Inventory box 12 Packing box 21 Input section 22 Display section 23 Storage section 24 Control section 241 Area setting section 242 Image acquisition section 243 Operating part detection section 244 Judgment section 245 Output section 246 Work specification section a1 1st Set time a2 Second set time P11 Operating point P12 Operating point P21 Operating point P22 Operating point S Inventory area t Reference time T, T1, T2 Specified area


Claims (10)

作業者が作業対象物を所定の指定エリアに配置する作業を撮像装置が撮影することによって生成した撮像画像を取得する画像取得部と、
前記撮像画像に写っている前記作業者の動作部位の位置を検出する動作部位検出部と、
前記動作部位検出部によって検出された前記動作部位が前記指定エリアに入る前の第1タイミングで撮影された第1撮像画像と、前記動作部位が前記指定エリアに入った後の第2タイミングで撮影された第2撮像画像とを特定し、前記第1撮像画像における前記指定エリアの画像と、前記第2撮像画像における前記指定エリアの画像との差分が所定の閾値以上の場合に、前記指定エリアに前記作業対象物が配置されたと判定する判定部と、
前記判定部の判定結果を出力する出力部と、
を備える、作業管理装置。
an image acquisition unit that acquires a captured image generated by an imaging device capturing a work in which a worker places a work object in a predetermined designated area;
a working part detection unit that detects the position of the working part of the worker shown in the captured image;
a first captured image captured at a first timing before the operating region detected by the operating region detection unit enters the designated area; and a first captured image captured at a second timing after the operating region enters the designated area. If the difference between the image of the specified area in the first captured image and the image of the specified area in the second captured image is greater than or equal to a predetermined threshold, a determination unit that determines that the work object is placed at
an output unit that outputs the determination result of the determination unit;
A work management device comprising:
前記判定部は、
前記動作部位が前記指定エリアに入っていない前記第1タイミングの撮像画像を前記第1撮像画像として特定し、かつ、前記動作部位が前記指定エリアに入っていない前記第2タイミングの撮像画像を前記第2撮像画像として特定し、
特定した前記第1撮像画像と前記第2撮像画像との差分に基づいて前記判定を行う、
請求項1に記載の作業管理装置。
The determination unit includes:
A captured image at the first timing in which the operating part is not within the designated area is specified as the first captured image, and an image captured at the second timing in which the operating part is not in the designated area is identified as the first captured image. Identification as the second captured image,
making the determination based on the identified difference between the first captured image and the second captured image;
The work management device according to claim 1.
前記判定部は、前記動作部位が前記指定エリアに入っている所定の基準時刻から第1設定時間だけ前の時刻を前記第1タイミングと決定するとともに、前記所定の基準時刻から第2設定時間だけ後の時刻を前記第2タイミングと決定する、
請求項1又は2に記載の作業管理装置。
The determination unit determines, as the first timing, a time that is a first set time before a predetermined reference time when the operating part enters the specified area, and determines a second set time from the predetermined reference time as the first timing. determining a later time as the second timing;
The work management device according to claim 1 or 2.
前記撮像装置は、複数の前記指定エリアを含む撮像画像を生成し、
前記判定部は、前記指定エリアごとに前記第1タイミング及び第2タイミングを決定する、
請求項3に記載の作業管理装置。
The imaging device generates a captured image including the plurality of designated areas,
The determination unit determines the first timing and second timing for each designated area,
The work management device according to claim 3.
前記動作部位検出部は、前記撮像画像に写っている前記作業者の身体の画像に基づき、複数の動作ポイントを含む前記身体の骨格情報を作成し、
前記出力部は、前記複数の動作ポイントのうち前記作業者が行う前記作業の内容に関連する所定の動作ポイントを、前記作業者の身体の画像における前記所定の動作ポイントに対応する身体の部位に重畳させて画像表示部に表示させる、
請求項1又は2に記載の作業管理装置。
The motion part detection unit creates skeletal information of the body including a plurality of motion points based on the image of the worker's body shown in the captured image,
The output unit outputs a predetermined motion point related to the content of the work performed by the worker among the plurality of motion points to a body part corresponding to the predetermined motion point in the body image of the worker. superimpose them and display them on the image display section,
The work management device according to claim 1 or 2.
前記動作部位検出部は、前記撮像画像に写っている前記作業者の身体の画像に基づき前記身体の骨格情報を作成し、前記骨格情報に基づいて特定した、前記作業者が行う前記作業の内容に関連する1以上の動作ポイントの位置に基づいて前記動作部位の位置を検出する、
請求項1又は2に記載の作業管理装置。
The operating part detection unit creates skeletal information of the body based on the image of the worker's body shown in the captured image, and determines the content of the work performed by the worker, which is specified based on the skeletal information. detecting the position of the operating part based on the position of one or more operating points associated with the
The work management device according to claim 1 or 2.
前記動作部位検出部は、複数の前記作業の内容と、前記作業の内容に関連する複数の前記所定の動作ポイントとを関連付けて記憶する記憶部を参照し、ユーザから受け付けた前記作業の内容の入力に応じて、入力された前記作業の内容に関連する前記所定の動作ポイントを決定する、
請求項6に記載の作業管理装置。
The motion part detection section refers to a storage section that stores a plurality of work contents in association with a plurality of predetermined motion points related to the work contents, and detects the work contents received from the user. in response to an input, determining the predetermined operation point related to the inputted content of the work;
The work management device according to claim 6.
前記動作部位検出部が作成した前記骨格情報が示す動きに基づいて、前記作業者が行う前記作業の内容を特定する作業特定部をさらに備え
前記動作部位検出部は、前記作業特定部が特定した前記作業の内容に関連する前記動作ポイントの位置に基づいて前記動作部位の位置を検出する、
請求項6に記載の作業管理装置。
The operation part detection unit further includes a work specifying unit that specifies the content of the work performed by the worker based on the movement indicated by the skeletal information created by the movement part detection unit. detecting the position of the operating part based on the position of the operating point related to the content of the work;
The work management device according to claim 6.
前記判定部は、
前記作業対象物が配置された対象物配置エリアから前記作業者が前記作業対象物をピックアップしたことを検出する検出手段からの出力を受信した受信タイミング、又は、前記受信タイミングよりも所定時間だけ前若しくは後のタイミングを、前記第1タイミングとする、
請求項1又は2に記載の作業管理装置。
The determination unit includes:
A reception timing at which an output from a detection means for detecting that the worker has picked up the work object from an object arrangement area where the work object is arranged, or a predetermined time earlier than the reception timing. or a later timing is set as the first timing;
The work management device according to claim 1 or 2.
作業者が作業対象物を所定の指定エリアに配置する作業を撮像装置が撮影することによって生成した撮像画像を取得する画像取得ステップと、
前記撮像画像に写っている前記作業者の動作部位の位置を検出する動作部位検出ステップと、
前記動作部位検出ステップにおいて検出された前記動作部位が前記指定エリアに入る前の第1タイミングで撮影された第1撮像画像と、前記動作部位が前記指定エリアに入った後の第2タイミングで撮影された第2撮像画像とを特定し、前記第1撮像画像における前記指定エリアの画像と、前記第2撮像画像における前記指定エリアの画像との差分が所定の閾値以上の場合に、前記指定エリアに前記作業対象物が配置されたと判定する判定ステップと、
前記判定ステップでの判定結果を出力する出力ステップと、
を有し、各ステップはコンピュータによって実行される、作業管理方法。
an image acquisition step of acquiring a captured image generated by an imaging device capturing a work in which a worker places a work object in a predetermined designated area;
a working part detection step of detecting the position of the working part of the worker shown in the captured image;
a first captured image captured at a first timing before the operating region detected in the operating region detection step enters the designated area; and a first captured image captured at a second timing after the operating region enters the designated area. If the difference between the image of the specified area in the first captured image and the image of the specified area in the second captured image is greater than or equal to a predetermined threshold, a determination step of determining that the work object is placed at
an output step for outputting the determination result in the determination step;
A work management method in which each step is performed by a computer.
JP2022105746A 2022-06-30 2022-06-30 Work management device and work management method Pending JP2024005533A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022105746A JP2024005533A (en) 2022-06-30 2022-06-30 Work management device and work management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022105746A JP2024005533A (en) 2022-06-30 2022-06-30 Work management device and work management method

Publications (1)

Publication Number Publication Date
JP2024005533A true JP2024005533A (en) 2024-01-17

Family

ID=89540762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022105746A Pending JP2024005533A (en) 2022-06-30 2022-06-30 Work management device and work management method

Country Status (1)

Country Link
JP (1) JP2024005533A (en)

Similar Documents

Publication Publication Date Title
JP6474179B2 (en) Learning data set creation method, and object recognition and position and orientation estimation method
JP6892286B2 (en) Image processing equipment, image processing methods, and computer programs
EP2082850B1 (en) Generating device of processing robot program
US10430650B2 (en) Image processing system
US11625842B2 (en) Image processing apparatus and image processing method
JP6537332B2 (en) Image processing method and photographing apparatus
CN101105715A (en) Simulation device of robot system
JP2004090183A (en) Article position and orientation detecting device and article taking-out device
JP2006155563A (en) Motion analyzer
JP6549655B2 (en) Article transport device
CN105426901B (en) Method for classifying to the known object in camera view
CN109955244B (en) Grabbing control method and device based on visual servo and robot
JP2015176272A (en) Image processor, image processing method, and image processing program
CN112276936A (en) Three-dimensional data generation device and robot control system
JP2013109691A (en) Image processing device, image processing method, and image processing program
US11989928B2 (en) Image processing system
CN111199533B (en) Image processing apparatus and method
JP2024005533A (en) Work management device and work management method
WO2021215333A1 (en) Program editing device
JP6279635B2 (en) Program, information processing apparatus and information processing method
JP2008014857A (en) Device, method, and program for acquiring coordinate for inspection of printed board
JP5545564B2 (en) Cloth product gripping system
JP7316712B1 (en) Abnormal behavior detection system
JP6952857B2 (en) Information processing equipment, information processing methods and programs
JP2012236266A (en) Robot control system, robot system, and program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231025