JP2024025410A - Work classification device, work classification method, program and learning device - Google Patents

Work classification device, work classification method, program and learning device Download PDF

Info

Publication number
JP2024025410A
JP2024025410A JP2022128826A JP2022128826A JP2024025410A JP 2024025410 A JP2024025410 A JP 2024025410A JP 2022128826 A JP2022128826 A JP 2022128826A JP 2022128826 A JP2022128826 A JP 2022128826A JP 2024025410 A JP2024025410 A JP 2024025410A
Authority
JP
Japan
Prior art keywords
work
actual
teaching
classification
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022128826A
Other languages
Japanese (ja)
Inventor
達也 松田
翔 梅本
一毅 松村
晴敏 西川
裕矢 大本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2022128826A priority Critical patent/JP2024025410A/en
Publication of JP2024025410A publication Critical patent/JP2024025410A/en
Pending legal-status Critical Current

Links

Images

Abstract

【課題】実作業を複数の作業区分へ適切に分類することができる作業分類装置、作業分類方法、プログラムおよび学習装置を提供する。【解決手段】作業分類装置は、複数のカメラにより教示作業が撮影された複数の教示画像に基づき、複数の作業区分への教示作業の分類付けが学習された学習済モデルと、複数のカメラにより実作業が撮影された複数の実画像を取得する実画像取得部と、学習済モデルと実画像に基づき、実作業を複数の作業区分へ分類する分類部と、を備える。【選択図】図1The present invention provides a work classification device, a work classification method, a program, and a learning device that can appropriately classify actual work into a plurality of work categories. [Solution] A work classification device uses a trained model that has learned to classify teaching work into a plurality of work categories based on a plurality of teaching images in which teaching work is photographed by a plurality of cameras; The present invention includes an actual image acquisition unit that acquires a plurality of real images of actual work, and a classification unit that classifies the actual work into a plurality of work categories based on the learned model and the actual images. [Selection diagram] Figure 1

Description

本開示は、作業分類装置、作業分類方法、プログラムおよび学習装置に関する。 The present disclosure relates to a work classification device, a work classification method, a program, and a learning device.

特許文献1には、作業現場の映像データを含む作業データに基づいて、作業現場で作業者によって行われる作業を複数の時系列的な詳細工程に分類する作業データ管理システムが記載されている。特許文献1に記載されている作業データ管理システムでは、作業者の頭、手等の身体の所定部位の位置の変化に基づいて作業者が行っている詳細工程が特定される。 Patent Document 1 describes a work data management system that classifies work performed by workers at a work site into a plurality of detailed chronological processes based on work data including video data of the work site. In the work data management system described in Patent Document 1, a detailed process performed by a worker is specified based on a change in the position of a predetermined part of the worker's body, such as the head or hand.

特許第6824838号公報Patent No. 6824838

しかしながら、特許文献1に記載の作業データ管理システムでは、身体の所定部位の位置の変化の撮影が困難な作業については、詳細工程の分類が難しい場合があるという課題がある。 However, the work data management system described in Patent Document 1 has a problem in that it may be difficult to classify detailed processes for work in which it is difficult to photograph changes in the position of a predetermined body part.

本開示は、上記課題を解決するためになされたものであって、実作業を複数の作業区分へ適切に分類することができる作業分類装置、作業分類方法、プログラムおよび学習装置を提供することを目的とする。 The present disclosure has been made in order to solve the above problems, and aims to provide a work classification device, a work classification method, a program, and a learning device that can appropriately classify actual work into a plurality of work categories. purpose.

上記課題を解決するために、本開示に係る作業分類装置は、複数のカメラにより教示作業が撮影された複数の教示画像に基づき、複数の作業区分への前記教示作業の分類付けが学習された学習済モデルと、前記複数のカメラにより実作業が撮影された複数の実画像を取得する実画像取得部と、前記学習済モデルと前記実画像に基づき、前記実作業を前記複数の作業区分へ分類する分類部と、を備える。 In order to solve the above problems, a work classification device according to the present disclosure learns to classify the teaching work into a plurality of work categories based on a plurality of teaching images in which the teaching work is photographed by a plurality of cameras. a trained model; a real image acquisition unit that obtains a plurality of real images of the real work taken by the plurality of cameras; and a real image acquisition unit that divides the real work into the plurality of work categories based on the learned model and the real images. A classification unit that performs classification.

本開示に係る作業分類方法は、複数のカメラにより実作業が撮影された複数の実画像を取得するステップと、前記複数のカメラにより教示作業が撮影された複数の教示画像に基づき、複数の作業区分への前記教示作業の分類付けが学習された学習済モデルと前記実画像に基づき、前記実作業を前記複数の作業区分へ分類するステップと、を含む。 The work classification method according to the present disclosure includes the step of acquiring a plurality of actual images of actual work taken by a plurality of cameras, and the step of acquiring a plurality of actual images of actual work taken by a plurality of cameras, The method includes the step of classifying the actual work into the plurality of work categories based on the learned model and the actual image.

本開示に係るプログラムは、複数のカメラにより実作業が撮影された複数の実画像を取得するステップと、前記複数のカメラにより教示作業が撮影された複数の教示画像に基づき、複数の作業区分への前記教示作業の分類付けが学習された学習済モデルと前記実画像に基づき、前記実作業を前記複数の作業区分へ分類するステップと、をコンピュータに実行させる。 A program according to the present disclosure includes a step of acquiring a plurality of actual images of an actual work taken by a plurality of cameras, and a step of acquiring a plurality of actual images of an actual work taken by a plurality of cameras, and a step of obtaining a plurality of work classifications based on a plurality of teaching images of a teaching work taken by the plurality of cameras. A computer is caused to perform a step of classifying the actual work into the plurality of work categories based on the learned model in which the classification of the taught work has been learned and the actual image.

本開示に係る学習装置は、複数のカメラにより実作業が撮影された複数の実画像を入力するとともに前記実作業を複数の作業区分へ分類した結果を出力する機械学習モデルを、前記複数の作業区分がラベリングされた複数の教示画像に基づき機械学習する機械学習部を備える。 A learning device according to the present disclosure inputs a plurality of real images of real work taken by a plurality of cameras, and generates a machine learning model that outputs a result of classifying the real work into a plurality of work categories. It includes a machine learning unit that performs machine learning based on a plurality of teaching images in which classifications are labeled.

本開示の作業分類装置、作業分類方法、プログラムおよび学習装置によれば、実作業を複数の作業区分へ適切に分類することができる。 According to the work classification device, work classification method, program, and learning device of the present disclosure, actual work can be appropriately classified into a plurality of work categories.

本開示の実施形態に係る作業分類システムの構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of a work classification system according to an embodiment of the present disclosure. 本開示の実施形態に係る作業データベースの構成例を示す模式図である。FIG. 2 is a schematic diagram showing a configuration example of a work database according to an embodiment of the present disclosure. 本開示の実施形態に係る作業区分の定義の例を示す模式図である。FIG. 2 is a schematic diagram illustrating an example of the definition of work divisions according to an embodiment of the present disclosure. 本開示の実施形態に係る時間の分類の例を示す模式図である。FIG. 2 is a schematic diagram showing an example of time classification according to an embodiment of the present disclosure. 本開示の実施形態に係る教示画像の例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a teaching image according to an embodiment of the present disclosure. 本開示の実施形態に係る教示画像の例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a teaching image according to an embodiment of the present disclosure. 本開示の実施形態に係る教示画像の例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a teaching image according to an embodiment of the present disclosure. 本開示の実施形態に係る教示画像の例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a teaching image according to an embodiment of the present disclosure. 本開示の実施形態に係る教示画像の例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a teaching image according to an embodiment of the present disclosure. 本開示の実施形態に係る教示画像の例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a teaching image according to an embodiment of the present disclosure. 本開示の実施形態に係る教示画像の例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a teaching image according to an embodiment of the present disclosure. 本開示の実施形態に係る教示画像の例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a teaching image according to an embodiment of the present disclosure. 本開示の実施形態に係る教示画像の例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a teaching image according to an embodiment of the present disclosure. 本開示の実施形態に係る作業分類装置の動作例を示すフローチャートである。1 is a flowchart illustrating an example of the operation of the work classification device according to the embodiment of the present disclosure. 本開示の実施形態に係る作業分類システムの実装例を示す模式図である。FIG. 1 is a schematic diagram illustrating an implementation example of a work classification system according to an embodiment of the present disclosure. 本開示の実施形態に係る作業分類システムの実装例を示す模式図である。FIG. 1 is a schematic diagram illustrating an implementation example of a work classification system according to an embodiment of the present disclosure. 少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。FIG. 1 is a schematic block diagram showing the configuration of a computer according to at least one embodiment.

以下、本開示の実施形態に係る作業分類装置、作業分類方法、プログラムおよび学習装置について、図1~図17を参照して説明する。図1は、本開示の実施形態に係る作業分類システムの構成例を示すブロック図である。図2は、本開示の実施形態に係る作業データベースの構成例を示す模式図である。図3は、本開示の実施形態に係る作業区分の定義の例を示す模式図である。図4は、本開示の実施形態に係る時間の分類の例を示す模式図である。図5~図13は、本開示の実施形態に係る教示画像の例を示す模式図である。図14は、本開示の実施形態に係る作業分類装置の動作例を示すフローチャートである。図15および図16は、本開示の実施形態に係る作業分類システムの実装例を示す模式図である。図17は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。なお、各図において同一または対応する構成には同一の符号を用いて説明を適宜省略する。 Hereinafter, a work classification device, a work classification method, a program, and a learning device according to embodiments of the present disclosure will be described with reference to FIGS. 1 to 17. FIG. 1 is a block diagram illustrating a configuration example of a work classification system according to an embodiment of the present disclosure. FIG. 2 is a schematic diagram illustrating a configuration example of a work database according to an embodiment of the present disclosure. FIG. 3 is a schematic diagram illustrating an example of the definition of work divisions according to the embodiment of the present disclosure. FIG. 4 is a schematic diagram illustrating an example of time classification according to an embodiment of the present disclosure. 5 to 13 are schematic diagrams showing examples of teaching images according to the embodiment of the present disclosure. FIG. 14 is a flowchart illustrating an example of the operation of the work classification device according to the embodiment of the present disclosure. 15 and 16 are schematic diagrams illustrating an implementation example of a work classification system according to an embodiment of the present disclosure. FIG. 17 is a schematic block diagram showing the configuration of a computer according to at least one embodiment. In addition, in each figure, the same reference numerals are used for the same or corresponding components, and the description thereof will be omitted as appropriate.

(作業分類システムの構成)
図1は、本開示の実施形態に係る作業分類システム100の構成例を示す。図1に示す作業分類システム100は、作業分類装置1と、複数のカメラ2と、複数の作業者端末3と、作業データベース4とを備える。作業分類システム100は、複数のカメラ2が撮影した画像に基づいて、撮影した画像に含まれる作業を複数の作業区分へ分類するシステムである。なお、本実施形態において作業の内容等に関する例は、航空機やその部品の組み立て作業を前提とした例を挙げる。ただし、本実施形態の適用はこの例に限定されない。
(Configuration of work classification system)
FIG. 1 shows a configuration example of a work classification system 100 according to an embodiment of the present disclosure. The work classification system 100 shown in FIG. 1 includes a work classification device 1, a plurality of cameras 2, a plurality of worker terminals 3, and a work database 4. The work classification system 100 is a system that classifies the work included in the photographed images into a plurality of work categories based on the images photographed by the plurality of cameras 2. Note that, in this embodiment, examples regarding the content of work etc. are based on the assembling work of an aircraft or its parts. However, the application of this embodiment is not limited to this example.

カメラ2は、分類の対象となる作業の作業場所に設置され、作業を撮影する。カメラ2は、例えばWeb(ウェブ)カメラであり、撮影した静止画像または動画像を表す画像データを図示していない通信回線を介して作業分類装置1へ向けて送信する。動画像を表す画像データは、例えば、映像を表すビデオデータと、カメラ2の周囲の音を表すオーディオデータとを含んでいる。また、複数のカメラ2が撮影した各画像データは、互いに同期がとれた時刻情報をそれぞれ含んでいる。カメラ2は、例えば、作業対象となる部品や製品と、部品や製品に対して作業を実施する1または複数の作業者と、作業者が使用する工具や計量器、治具、副資材等(以下、まとめて「工具等」ともいう)とを撮影する。なお、本実施形態では、後述する教師あり機械学習にて学習された学習済モデル14を用いて、カメラ2が撮影した画像に基づき、撮影された作業の作業区分や使用されている工具等を特定する。その学習済モデル14の機械学習の際に教師データとなる画像を教示画像という。また、教示画像が含む作業を教示作業という。また、分類の基準となる(分類対象となる)画像を実画像といい、実画像が含む作業を実作業という。 The camera 2 is installed at the work location of the work to be classified and photographs the work. The camera 2 is, for example, a web camera, and transmits image data representing captured still images or moving images to the work classification device 1 via a communication line (not shown). The image data representing a moving image includes, for example, video data representing an image and audio data representing sounds surrounding the camera 2. Further, each image data captured by the plurality of cameras 2 includes time information that is synchronized with each other. For example, the camera 2 detects parts and products to be worked on, one or more workers who work on the parts and products, and tools, measuring instruments, jigs, auxiliary materials, etc. used by the workers. (hereinafter collectively referred to as "tools, etc."). In addition, in this embodiment, the work category of the photographed work, the tools used, etc. are determined based on the image photographed by the camera 2 using a trained model 14 learned by supervised machine learning, which will be described later. Identify. An image that becomes teaching data during machine learning of the learned model 14 is called a teaching image. Further, the work included in the teaching image is referred to as a teaching work. Further, an image that serves as a standard for classification (a target for classification) is called a real image, and a work included in the real image is called a real work.

作業者端末3は、例えばタブレット端末であり、各作業者が携帯する。各作業者は、例えば、実施する実作業の着手日時(着手時刻)と完了日時(完了時刻)等を示す情報を作業者端末3へ入力する。作業者端末3は、入力された着手日時、完了日時等を示す情報を作業データベース4へ登録する。 The worker terminal 3 is, for example, a tablet terminal, and is carried by each worker. Each worker inputs into the worker terminal 3 information indicating, for example, the start date and time (start time) and the completion date and time (completion time) of the actual work to be performed. The worker terminal 3 registers information indicating the input start date and time, completion date and time, etc. into the work database 4.

図2は、作業データベース4の構成例を示す。図2に示すように、作業データベース4は、複数のレコード41を格納する。なお、本実施形態では、作業データベース4は、管理対象となる情報を格納するファイルの集合と、ファイル内の情報を管理するシステムとを含むものとする。図2に示す例では、各レコード41 は、作業内容(作業場所、作業項目、手直し作業か否かを表す情報)、着手時刻(年月日時分)、完了時刻(年月日時分)、作業者名を表すデータを格納する複数のフィールドを含んでいる。作業データベース4は、例えば作業者名と日時等を指定した問い合わせに対して、着手時刻と完了時刻を示す情報を回答する。あるいは、作業データベース4は、例えば作業場所と日時等を指定した問い合わせに対して、作業内容と、作業者名と、着手時刻と完了時刻を示す情報を回答する。なお、本実施形態では、作業内容は、例えば、当該作業が、正味の作業なのか、あるいは正味の作業で生じた不具合を直すための作業なのか(これを手直し作業という)を区別するための情報を含んでいる。作業が手直し作業であることを示す情報は、例えば作業者が作業者端末3から登録する。 FIG. 2 shows an example of the configuration of the work database 4. As shown in FIG. As shown in FIG. 2, the work database 4 stores a plurality of records 41. In this embodiment, the work database 4 includes a collection of files that store information to be managed, and a system that manages the information in the files. In the example shown in FIG. 2, each record 41 includes work content (work location, work item, information indicating whether it is a rework work), start time (year, month, day, hour, and minute), completion time (year, month, day, hour, and minute), and work. Contains multiple fields that store data representing the person's name. The work database 4 responds to an inquiry specifying, for example, a worker's name, date and time, etc. with information indicating a start time and a completion time. Alternatively, the work database 4 responds to an inquiry specifying the work location, date and time, etc. with information indicating the work content, worker name, start time, and completion time. In this embodiment, the work content is, for example, information for distinguishing whether the work is a net work or a work to correct a defect that occurred in the net work (this is referred to as rework work). Contains information. Information indicating that the work is a rework work is registered by the worker from the worker terminal 3, for example.

(作業分類装置の構成)
図1に示す作業分類装置1は、例えば、1または複数のサーバ、パーソナルコンピュータ、タブレット端末等のコンピュータを用いて構成することができ、そのコンピュータ、周辺装置等のハードウェアと、そのコンピュータが実行するプログラム等のソフトウェアとの組み合わせ等から構成される機能的構成として次の各部を備える。すなわち、作業分類装置1は、教示画像取得部11、教示部12、機械学習部13、学習済モデル14、実画像取得部15、分類部16、入出力部17および記憶部18を備える。また、学習済モデル14は、工程分析用学習済モデル141と、工具分析用学習済モデル142とを含む。なお、作業分類装置1内の機能的構成の一部または全部は、クラウド環境、オンプレミス環境等においてネットワーク上に構成されていてもよい。また、作業分類装置1は、本開示に係る学習装置の一構成例でもある。なお、入出力部17は、例えば、キーボード、マウス、ディスプレイ、タッチディスプレイ等を用いて、操作者との間で情報を入出力する機能的構成である。
(Configuration of work classification device)
The work classification device 1 shown in FIG. 1 can be configured using, for example, computers such as one or more servers, personal computers, and tablet terminals, and includes hardware such as computers, peripheral devices, and The following parts are provided as a functional configuration consisting of a combination of software such as programs. That is, the work classification device 1 includes a taught image acquisition section 11 , a teaching section 12 , a machine learning section 13 , a learned model 14 , an actual image acquisition section 15 , a classification section 16 , an input/output section 17 , and a storage section 18 . Further, the learned model 14 includes a learned model 141 for process analysis and a learned model 142 for tool analysis. Note that part or all of the functional configuration within the work classification device 1 may be configured on a network in a cloud environment, an on-premises environment, or the like. Further, the work classification device 1 is also an example of a configuration of a learning device according to the present disclosure. Note that the input/output unit 17 has a functional configuration that inputs and outputs information to and from the operator using, for example, a keyboard, a mouse, a display, a touch display, and the like.

ここで、図3および図4を参照して、本実施形態における作業区分の例と、作業に係る時間の分類例について説明する。図3は、本実施形態における作業区分の例を示す。本実施形態では、作業を、主体作業と、付随作業と、準備作業と、余裕作業の4つの作業区分に分類する。各作業の定義は次のとおりである。主体作業は、作業者が工具を持っている、または、作業音がしている作業である。主体作業は、正味作業ともいう。また、付随作業は、正味作業、準備作業、余裕作業以外の作業である。また、準備作業は、作業者がモノを取りに行く、または置きに行く作業である。余裕作業は、作業者がほかの誰かと話している状態の作業である。 Here, with reference to FIGS. 3 and 4, an example of work classification and an example of classification of time related to work in this embodiment will be described. FIG. 3 shows an example of work divisions in this embodiment. In this embodiment, work is classified into four work categories: main work, incidental work, preparatory work, and spare work. The definition of each work is as follows. The main work is a work in which the worker is holding a tool or is making work sounds. Main work is also called net work. Further, the incidental work is work other than net work, preparatory work, and surplus work. Preparation work is work in which the worker goes to pick up or put things down. Slack work is work in which the worker is talking with someone else.

図4は、本実施形態における時間の分類の例を示す。本実施形態では、作業に係る時間(例えば就労時間)を、主体時間(正味時間)、付随時間、準備時間、余裕時間、および離脱時間の5種類の時間に分類する。主体時間(正味時間)は、主体作業(正味作業)の時間であり、部品の形状、組み付け等の状態を変更するために直接必要とする正味の時間であって、作業プロセスで不可避な時間である。主体時間(正味時間)は、例えば、穴明け作業の時間、シール前清掃の時間等である。また、付随時間は、付随作業の時間であり、部品形状、組み付け等の状態を変更するため規則的に発生し間接的に消費する時間である。付随時間は、例えば、製品や部品の清掃である一般清掃の時間、検査のための時間である。また、準備時間は、準備作業の時間であり、作業の切替に発生する準備および後始末の時間である。準備時間は、例えば、工具または部品を準備する時間や片付けの時間である。また、余裕時間は、余裕作業の時間であり、疲れを回復する時間、不具合に対する再加工時間(手直し作業時間)、規律や工場の管理方式に起因する避けられない時間である。余裕時間は、例えば、休憩、朝礼、昼礼、教育、作業場所の清掃等の時間である。そして、離脱時間は、作業エリア(あるいは作業対象)から所定距離以上離れた状態で行われる準備、段取、後始末をする時間である。上記付随時間、準備時間、または、余裕時間の内、作業エリアから離れる時間である。離脱時間は、例えば、工具室へ何かを借用しに行くための時間、塗料調合のための時間、ゴミ捨てのための時間等である。 FIG. 4 shows an example of time classification in this embodiment. In this embodiment, time related to work (for example, working time) is classified into five types of time: main time (net time), incidental time, preparation time, slack time, and withdrawal time. Subject time (net time) is the time for subject work (net work), and is the net time directly required to change the shape of parts, assembly, etc., and is unavoidable time in the work process. be. The main time (net time) is, for example, the time for drilling work, the time for cleaning before sealing, etc. Further, the incidental time is the time for incidental work, and is the time that occurs regularly and is indirectly consumed in order to change the shape of the parts, the state of assembly, etc. The accompanying time is, for example, time for general cleaning, which is cleaning of products and parts, and time for inspection. Further, the preparation time is the time for preparation work, and is the time for preparation and cleanup that occurs when switching tasks. Preparation time is, for example, time for preparing tools or parts and time for cleaning up. In addition, slack time is time for slack work, time to recover from fatigue, time for rework (rework time) for defects, and unavoidable time due to discipline and factory management methods. The spare time is, for example, time for breaks, morning meetings, lunch meetings, education, cleaning of the work place, etc. The separation time is the time required for preparations, setup, and cleanup to be performed while being separated from the work area (or work target) by a predetermined distance or more. This is the time to leave the work area within the above incidental time, preparation time, or slack time. The leaving time includes, for example, the time to go to the tool room to borrow something, the time to mix paint, the time to throw away trash, etc.

作業分類装置1が備える教示画像取得部11は、複数のカメラ2により教示作業が撮影された複数の教示画像を取得し、記憶部18に記憶する。教示部12は、教示画像を入出力部17に表示し、操作者の入出力部17に対する入力操作に従って、教示画像に対して作業区分の内容や作業工具等の種類をラベル付けし、ラベル付けした教示画像を記憶部18に記憶する。 The teaching image acquisition unit 11 included in the work classification device 1 acquires a plurality of teaching images obtained by photographing the teaching work by the plurality of cameras 2, and stores them in the storage unit 18. The teaching unit 12 displays the teaching image on the input/output unit 17, and labels the teaching image with the content of the work classification and the type of work tool, etc., according to the operator's input operation to the input/output unit 17. The teaching image thus obtained is stored in the storage unit 18.

なお、本実施形態では工具等の種類が、主体作業用工具、準備作業用工具、または、付随作業用工具に分類される。主体作業用工具は、主として主体作業で使用される工具であり、例えば、ドリル工具、カシメ工具、シール工具等である。準備作業用工具は、主として準備作業で使用される工具であり、例えば、計量器、定規、型板等の治具、抜型等の治具等である。付随作業用工具は、主として付随作業で使用される工具であり、例えば、一般清掃で使用される工具等である。機械学習部13は、ラベル付けされた教示画像を教師データとして、学習済モデル14(あるいは学習済モデル14が未学習の状態のモデル)を機械学習(あるいは再学習)する。機械学習部13は、複数のカメラにより実作業が撮影された複数の実画像を入力するとともに実作業を複数の作業区分へ分類した結果を出力する機械学習モデルを、複数の作業区分や工具等の種類がラベリングされた複数の教示画像に基づき機械学習する。なお、本実施形態では、学習済モデル14が工程分析用学習済モデル141と工具分析用学習済モデル142を含んでいるが、工具分析用学習済モデル142は省略してもよい。この場合、学習済モデル14は工程分析用学習済モデル141と同義となる。 In this embodiment, the types of tools are classified into main work tools, preparatory work tools, and auxiliary work tools. The main body work tool is a tool mainly used for the main body work, and includes, for example, a drill tool, a caulking tool, a sealing tool, and the like. The preparatory work tools are tools mainly used in the preparatory work, and include, for example, jigs such as measuring instruments, rulers, and templates, and jigs such as cutting dies. Ancillary work tools are tools mainly used in ancillary work, such as tools used in general cleaning. The machine learning unit 13 performs machine learning (or relearning) on the learned model 14 (or the unlearned model of the learned model 14) using the labeled teaching image as teacher data. The machine learning unit 13 inputs a plurality of real images of the actual work taken by a plurality of cameras, and generates a machine learning model that outputs the results of classifying the actual work into a plurality of work categories. Machine learning is performed based on multiple teaching images labeled by type. In this embodiment, the trained model 14 includes a process analysis trained model 141 and a tool analysis trained model 142, but the tool analysis trained model 142 may be omitted. In this case, the learned model 14 is synonymous with the learned model 141 for process analysis.

工程分析用学習済モデル141は、複数のカメラ2により教示作業が撮影された複数の教示画像に基づき、複数の作業区分への教示作業の分類付けが学習された学習済モデルである。工程分析用学習済モデル141は、例えばニューラルネットワークを要素とする学習済モデルであり、入力される多数のデータに対して求める解が出力されるよう、機械学習によりニューラルネットワークの各層のニューロン間の重み付け係数が最適化されている。工程分析用学習済モデル141は、例えば、入力から出力までの演算を行うプログラムと当該演算に用いられる重み付け係数(パラメータ)の組合せで構成される。工程分析用学習済モデル141は、1または複数フレーム分の実画像を入力とし、推定される作業区分の分類を出力とし、ラベル付けされた教示画像を教師データとして機械学習された学習済み機械学習モデルである。 The trained model for process analysis 141 is a trained model that has learned classification of teaching work into a plurality of work categories based on a plurality of teaching images in which teaching work is photographed by a plurality of cameras 2. The trained model for process analysis 141 is a trained model that includes, for example, a neural network as an element, and uses machine learning to train the neurons in each layer of the neural network so that a solution to be obtained for a large amount of input data is output. Weighting factors have been optimized. The trained model for process analysis 141 is configured, for example, by a combination of a program that performs calculations from input to output and weighting coefficients (parameters) used in the calculations. The trained model 141 for process analysis is a trained machine learning model that receives one or more frames of real images as input, outputs the estimated classification of work divisions, and performs machine learning using labeled teaching images as training data. It's a model.

また、工具分析用学習済モデル142は、上述した工程分析用学習済モデル141と同様に例えばニューラルネットワークを要素とする学習済モデルである。工具分析用学習済モデル142は、1または複数フレーム分の実画像を入力とし、推定される工具等の種類の分類を出力とし、工具等の種類がラベル付けされた教示画像を教師データとして機械学習された学習済み機械学習モデルである。なお、工具分析用学習済モデル142は、工具等の種類の分類ができなかった場合には、その旨のデータを出力する。 Further, the trained model for tool analysis 142 is a trained model that includes, for example, a neural network as an element, similar to the trained model for process analysis 141 described above. The trained model for tool analysis 142 receives one or more frames of real images as input, outputs the estimated classification of the type of tool, etc., and uses the teaching image labeled with the type of tool, etc. as training data for the machine. It is a trained machine learning model. Note that when the tool analysis trained model 142 cannot classify the type of tool, etc., it outputs data to that effect.

図5~図13は教示画像の例を示す。図5は、破線のブロック内の作業者が主体作業(この例ではリベットかしめ作業)を実施している場合の教示画像の例を示す。図5に示す教示画像に対しては「主体作業」がラベル付けされる。図6は、破線のブロック内の作業者が付随作業(この例では作業記録、品確記録等)を実施している場合の教示画像の例を示す。図6に示す教示画像に対しては「付随作業」がラベル付けされる。図7は、破線のブロック内の作業者が準備作業(この例では部品準備のため部品を手に取る作業)を実施している場合の教示画像の例を示す。図7に示す教示画像に対しては「準備作業」がラベル付けされる。 5 to 13 show examples of teaching images. FIG. 5 shows an example of a teaching image when the operator within the broken line block is performing the main work (rivet caulking work in this example). The teaching image shown in FIG. 5 is labeled with "main work". FIG. 6 shows an example of a teaching image when a worker within a block indicated by a broken line is performing associated work (in this example, recording work, recording quality, etc.). The teaching image shown in FIG. 6 is labeled with "auxiliary work". FIG. 7 shows an example of a teaching image when a worker within a block indicated by a broken line is performing a preparation work (in this example, a work of picking up a part to prepare the part). The teaching image shown in FIG. 7 is labeled with "preparation work".

また、図8は、主体作業用工具(この例ではドリル工具)を含む教示画像の例を示す。図8に示す教示画像に対しては「主体作業用工具」がラベル付けされる。図9は、主体作業用工具(この例ではカシメ工具)を含む教示画像の例を示す。図9に示す教示画像に対しては「主体作業用工具」がラベル付けされる。図10は、準備作業用工具(この例ではスケール)を含む教示画像の例を示す。図10に示す教示画像に対しては「準備作業用工具」がラベル付けされる。図11は、準備作業用工具(この例ではバイス)を含む教示画像の例を示す。図11に示す教示画像に対しては「準備作業用工具」がラベル付けされる。図12は、準備作業用工具(この例では治具)を含む教示画像の例を示す。図12に示す教示画像に対しては「準備作業用工具」がラベル付けされる。図13は、付随作業用工具(この例では掃除機)を含む教示画像の例を示す。図13に示す教示画像に対しては「付随作業用工具」がラベル付けされる。 Further, FIG. 8 shows an example of a teaching image including a main work tool (a drill tool in this example). The teaching image shown in FIG. 8 is labeled with "tool for main body work." FIG. 9 shows an example of a teaching image including a main work tool (a caulking tool in this example). The teaching image shown in FIG. 9 is labeled with "main work tool". FIG. 10 shows an example of a teaching image that includes a preparatory work tool (in this example, a scale). The teaching image shown in FIG. 10 is labeled with "tool for preparatory work." FIG. 11 shows an example of a teaching image including a preparatory work tool (in this example, a vise). The teaching image shown in FIG. 11 is labeled with "tool for preparatory work." FIG. 12 shows an example of a teaching image including a preparatory work tool (a jig in this example). The teaching image shown in FIG. 12 is labeled with "tool for preparatory work." FIG. 13 shows an example of a teaching image that includes an accessory work tool (in this example, a vacuum cleaner). The teaching image shown in FIG. 13 is labeled with "ancillary work tool."

実画像取得部15は、複数のカメラ2により実作業が撮影された複数の実画像を取得し、記憶部18に記憶する。 The actual image acquisition section 15 acquires a plurality of actual images taken by the plurality of cameras 2 and stores them in the storage section 18 .

分類部16は、学習済モデル14(工程分析用学習済モデル141)と実画像に基づき、実作業を複数の作業区分へ分類し、分類した結果を記憶部18に記憶する。本実施形態では、複数の作業区分は、主体作業、準備作業、付随作業、および余裕作業を含む。 The classification unit 16 classifies the actual work into a plurality of work categories based on the trained model 14 (trained model for process analysis 141) and the actual image, and stores the classified results in the storage unit 18. In this embodiment, the plurality of work categories include main work, preparatory work, incidental work, and extra work.

また、分類部16は、学習済モデル(工具分析用学習済モデル142)と実画像に基づき、実画像に含まれている作業工具の分析結果を反映させて、実作業を複数の作業区分へ分類する。例えば、分類部16は、工程分析用学習済モデル141によって主体作業と特定された場合であっても、工具分析用学習済モデル142によって主体作業用工具と特定されなかったときには、作業区分を主体作業以外に特定する。 Furthermore, based on the trained model (trained model for tool analysis 142) and the actual image, the classification unit 16 divides the actual work into multiple work categories by reflecting the analysis results of the work tools included in the actual image. Classify. For example, even if the trained model for process analysis 141 identifies the work as the main work, if the trained model for tool analysis 142 does not identify it as the main work tool, the classification unit 16 classifies the work classification as the main work. Identify other than work.

また、分類部16は、学習済モデル14と実画像に基づき、実作業の内容と着手日時と完了日時を記録した作業データベース4を参照して、実作業を複数の作業区分へ分類する。例えば、分類部16は、作業データベース4を参照して、作業データベース4内の作業内容が「手直し作業」である場合、学習済モデル14を用いて特定した作業区分に関わらず、作業区分を「余裕作業」に分類する。 Further, the classification unit 16 classifies the actual work into a plurality of work categories based on the learned model 14 and the actual image, with reference to the work database 4 that records the content of the actual work, the start date and time, and the completion date and time. For example, the classification unit 16 refers to the work database 4, and if the work content in the work database 4 is "rework work", the classification unit 16 classifies the work classification as "repair work" regardless of the work classification specified using the learned model 14. Classified as "extra work".

なお、分類部16は、所定の画像認識処理を行うことで、実画像に含まれている作業者が位置するエリアや作業対象からの距離を検出する機能、作業者を識別する機能等を有している。この場合、画像認識処理の仕方について限定はなく、既存の処理の仕方を用いることができる。また、分類部16は、作業者が位置するエリアが所定の作業エリア内(例えば作業対象から所定の距離内)であるか否かを判定する機能を有している。 In addition, the classification unit 16 has a function of detecting the area where the worker included in the actual image is located and the distance from the work target, a function of identifying the worker, etc. by performing predetermined image recognition processing. are doing. In this case, there are no limitations on the method of image recognition processing, and existing processing methods can be used. The classification unit 16 also has a function of determining whether the area where the worker is located is within a predetermined work area (for example, within a predetermined distance from the work target).

記憶部18は、教示画像、ラベル付けの結果、実画像、実画像の分類結果等を示す情報を記憶する。 The storage unit 18 stores information indicating the teaching image, the labeling result, the actual image, the classification result of the actual image, and the like.

(作業分類装置の動作例)
図14を参照して、作業分類装置1の動作例について説明する。図14に示すフローチャートは、図1に示す作業分類装置1による作業区分の分類処理の流れを示す。図14に示す処理は、所定の時間分の分類対象となる実画像が記憶部18に記憶された状態で、例えば操作者が、入出力部17に対して処理対象の実画像の指定と処理の開始を指示すると、開始される。なお、学習済モデル14(工程分析用学習済モデル141と工具分析用学習済モデル142)は、機械学習済みであるとする。また、処理対象の実画像が特定の作業者を撮影した画像である場合を例として説明する。
(Example of operation of work classification device)
An example of the operation of the work classification device 1 will be described with reference to FIG. 14. The flowchart shown in FIG. 14 shows the flow of the work category classification process by the work classification device 1 shown in FIG. In the process shown in FIG. 14, with real images to be classified for a predetermined period of time stored in the storage unit 18, for example, an operator specifies the real images to be processed to the input/output unit 17 and processes them. It will start when you instruct it to start. It is assumed that the learned models 14 (the learned model 141 for process analysis and the learned model 142 for tool analysis) have undergone machine learning. Further, a case will be described using an example in which the actual image to be processed is an image of a specific worker.

図14に示す処理が開始されると、まず、分類部16が、記憶部18に記憶されている1または複数のカメラ2の1または複数フレーム分の実画像を取得し(ステップS11)、実画像における作業者が位置しているエリアを検出する(ステップS12)。次に、分類部16は、検出したエリアが作業エリア内であるか否かを判定する(ステップS13)。検出したエリアが作業エリア内でなかった場合(ステップS13:No)、分類部16は、分析した実画像の撮影時刻を離脱時間に分類する(ステップS14)。 When the process shown in FIG. 14 is started, first, the classification unit 16 acquires one or more frames worth of real images of one or more cameras 2 stored in the storage unit 18 (step S11), and The area where the worker is located in the image is detected (step S12). Next, the classification unit 16 determines whether the detected area is within the work area (step S13). If the detected area is not within the work area (step S13: No), the classification unit 16 classifies the photographing time of the analyzed real image as the departure time (step S14).

検出したエリアが作業エリア内であった場合(ステップS13:Yes)、分類部16は、作業データベース4を参照し、分析中の実画像の撮影時刻が「手直し作業」であるか否かを判定する(ステップS15)。分析中の実画像の撮影時刻が「手直し作業」であった場合(ステップS15:Yes)、分類部16は、分析した実画像の撮影時刻を余裕時間に分類する(ステップS16)。 If the detected area is within the work area (step S13: Yes), the classification unit 16 refers to the work database 4 and determines whether the shooting time of the actual image being analyzed is "rework work" or not. (Step S15). If the photographing time of the real image being analyzed is "rework" (step S15: Yes), the classification unit 16 classifies the photographing time of the analyzed real image as a margin time (step S16).

分析中の実画像の撮影時刻が「手直し作業」でなかった場合(ステップS15:No)、分類部16は、工程分析用学習済モデル141を用いて作業区分を検出するとともに(ステップS17)、工具分析用学習済モデル142を用いて工具種類を検出する(ステップS18)。次に、分類部16は、検出された作業が主体作業であるか否かを判定する(ステップS19)。検出された作業が主体作業である場合(ステップS19:Yes)、分類部16は、検出された工具が主体作業用であったか否かを判定する(ステップS20)。検出された工具が主体作業用であった場合(ステップS20:Yes)、分類部16は、分析した実画像の撮影時刻を主体時間に分類する(ステップS21)。 If the shooting time of the actual image being analyzed is not "rework work" (step S15: No), the classification unit 16 detects the work classification using the trained model for process analysis 141 (step S17), The tool type is detected using the learned model for tool analysis 142 (step S18). Next, the classification unit 16 determines whether the detected work is the main work (step S19). If the detected work is the main work (step S19: Yes), the classification unit 16 determines whether the detected tool is for the main work (step S20). If the detected tool is for the main work (step S20: Yes), the classification unit 16 classifies the photographing time of the analyzed real image as the main work time (step S21).

一方、検出された作業が主体作業でなかった場合(ステップS19:No)、または、検出された工具が主体作業用でなかった場合(ステップS20:No)、分類部16は、検出された作業が準備作業であるか否かを判定する(ステップS22)。検出された作業が準備作業であった場合(ステップS22:Yes)、分類部16は、分析した実画像の撮影時刻を準備時間に分類する(ステップS23)。検出された作業が準備作業でなかった場合(ステップS22:No)、分類部16は、分析した実画像の撮影時刻を付随時間に分類する(ステップS24)。 On the other hand, if the detected work is not the main work (step S19: No), or if the detected tool is not for the main work (step S20: No), the classification unit 16 classifies the detected work It is determined whether or not is a preparatory work (step S22). If the detected work is a preparation work (step S22: Yes), the classification unit 16 classifies the photographing time of the analyzed real image as a preparation time (step S23). If the detected work is not a preparatory work (step S22: No), the classification unit 16 classifies the photographing time of the analyzed actual image into the associated time (step S24).

ステップS14、ステップS16、ステップS21、ステップS23、または、ステップS24の処理の後、分類部16は、処理対象の実画像に対する分類処理がすべて終了したか否かを判定する(ステップS25)。処理対象の実画像に対する分類処理がすべて終了した場合(ステップS25:Yes)、分類部16は、図14に示す処理を終了する。処理対象の実画像に対する分類処理がすべて終了していない場合(ステップS25:No)、分類部16は、ステップS11以降の処理を再度実行する。 After the processing in step S14, step S16, step S21, step S23, or step S24, the classification unit 16 determines whether all classification processing for the real image to be processed has been completed (step S25). If all the classification processes for the real images to be processed have been completed (step S25: Yes), the classification unit 16 ends the process shown in FIG. 14. If all the classification processes for the real images to be processed have not been completed (step S25: No), the classification unit 16 re-executes the processes from step S11 onwards.

(作業分類システムの実装例)
図15および図16を参照して、図1を参照して説明した作業分類システム100の実装例ついて説明する。図15は学習済モデル14を作成する機能の実装例を示し、図16は作業を分類する機能の実装例を示す。
(Example of implementation of work classification system)
An implementation example of the work classification system 100 described with reference to FIG. 1 will be described with reference to FIGS. 15 and 16. FIG. 15 shows an implementation example of a function to create the trained model 14, and FIG. 16 shows an implementation example of a function to classify tasks.

図15に示す実装例では、まず、作業者201が教示作業を実施し、Webカメラ202で撮影する(ステップS201)。撮影した画像または動作データは、データベース203に登録される(ステップS202)。次に、IE(Industrial Engineering)観測者204が端末205で、静止画像または動画像を表す画像データに対して、作業区分を教示する(ラベル付けする)(ステップS203)。次に機械学習を実行し、学習済み機械学習モデル206を作成する(ステップS204)。次に、学習済み機械学習モデル206にモデルデプロイメントを実行し、実行可能な学習済み機械学習モデル207を構築する(ステップS205)。 In the implementation example shown in FIG. 15, first, the worker 201 performs a teaching task and takes a picture with the web camera 202 (step S201). The photographed image or motion data is registered in the database 203 (step S202). Next, the IE (Industrial Engineering) observer 204 uses the terminal 205 to teach (label) the work classification to image data representing a still image or a moving image (step S203). Next, machine learning is executed to create a trained machine learning model 206 (step S204). Next, model deployment is performed on the trained machine learning model 206 to construct an executable trained machine learning model 207 (step S205).

図16に示す実装例では、時刻が同期された複数のWebカメラ303にて複数の作業者301を撮影する(ステップS301)。複数のWebカメラ303は、タイムサーバ304からネットワーク上の時刻データを受信することで時刻同期がなされる。撮影された静止画像または動画像を表す画像データは、クラウドDB(データベース)305に登録される(ステップS302)。 In the implementation example shown in FIG. 16, a plurality of workers 301 are photographed using a plurality of time-synchronized Web cameras 303 (step S301). The plurality of web cameras 303 are time-synchronized by receiving time data on the network from the time server 304. Image data representing the photographed still image or moving image is registered in the cloud DB (database) 305 (step S302).

また、作業者301は、タブレット端末302を用いて、時刻が同期されたクラウドコンピューティング309上の着完システム310へ着完データを入力する(ステップS307)。作業監督者311は、端末312で、着完システム310に登録されたデータを監視する。 Further, the worker 301 uses the tablet terminal 302 to input arrival completion data into the arrival completion system 310 on the cloud computing 309 with which the time is synchronized (step S307). The work supervisor 311 monitors the data registered in the completion system 310 using the terminal 312.

登録された静止画像または動画像を表す画像データに対しては、クラウドコンピューティング306で学習済み機械学習モデル207を実行し、作業を分類する(ステップS303)。作業分類データ(作業分類結果)は、クラウドDB307に登録される(ステップS304)。また、分類結果を活用し、学習済み機械学習モデル206を再学習する(ステップS304および図15のステップS204)。 The cloud computing 306 executes the trained machine learning model 207 on the image data representing the registered still image or moving image to classify the work (step S303). The work classification data (work classification results) are registered in the cloud DB 307 (step S304). Furthermore, the learned machine learning model 206 is retrained by utilizing the classification results (step S304 and step S204 in FIG. 15).

次に、クラウドコンピューティング308でクリエを実行し、着完システム310に登録されている着完データとの整合性が検証される(ステップS305)。その後、IE観測者204が端末205で、作業分析を実施する(ステップS306)。 Next, the cloud computing 308 executes the query, and the consistency with the completed completion data registered in the completed completion system 310 is verified (step S305). Thereafter, the IE observer 204 uses the terminal 205 to perform work analysis (step S306).

図15および図16に示す作業分類システムでは、Webカメラにより作業者の撮影を行うことで、作業観測員を配置せず、作業者のカメラデータ取得が可能である。また、同期された時刻データにより、複数のカメラにて撮影し、時刻データで結合することができる。また、カメラデータは、教師あり学習にて、作業区分(主体作業、付随作業、準備作業、余裕作業(余裕時間))を学習した機械学習モデルにて、自動分析し、作業着完データとの整合性確認が実施される。分析結果は、データベース上に自動で保管され、作業観測員による入力を要しない。カメラおよび作業着完データのみ使用するため、作業者に身体的な負担を生じることなく観測が可能である。 In the work classification system shown in FIGS. 15 and 16, by photographing the worker using a web camera, it is possible to obtain camera data of the worker without deploying a work observer. Also, using synchronized time data, images can be taken with multiple cameras and combined using the time data. In addition, camera data is automatically analyzed using a machine learning model that has learned the work categories (main work, incidental work, preparatory work, slack work (slack time)) through supervised learning, and is compared with work completion data. A consistency check is performed. The analysis results are automatically stored in the database and do not require input by work observers. Since only cameras and data on completed work clothes are used, observations can be made without putting any physical strain on the workers.

なお、図15および図16に示す実装例と、図1に示す構成との関係は以下のとおりである。Webカメラ202およびWebカメラ303が図1に示すカメラ2に対応する。データベース203が図1に示す教示画像取得部11および記憶部18の組み合わせに対応する。クラウドDB305が図1に示す実画像取得部15および記憶部18の組み合わせに対応する。端末205が図1に示す教示部12および入出力部17の組み合わせに対応する。学習済み機械学習モデル206および学習済み機械学習モデル207が図1に示す学習済モデル14に対応する。タブレット端末302が図1に示す作業者端末3に対応する。クラウドコンピューティング309および着完システム310の組み合わせが図1に示す作業データベース4に対応する。クラウドコンピューティング306が図1に示す分類部16に対応する。クラウドDB307が図1に示す記憶部18に対応する。 Note that the relationship between the implementation examples shown in FIGS. 15 and 16 and the configuration shown in FIG. 1 is as follows. Web camera 202 and web camera 303 correspond to camera 2 shown in FIG. The database 203 corresponds to the combination of the teaching image acquisition section 11 and the storage section 18 shown in FIG. Cloud DB 305 corresponds to the combination of real image acquisition section 15 and storage section 18 shown in FIG. The terminal 205 corresponds to the combination of the teaching section 12 and the input/output section 17 shown in FIG. A trained machine learning model 206 and a trained machine learning model 207 correspond to the trained model 14 shown in FIG. The tablet terminal 302 corresponds to the worker terminal 3 shown in FIG. The combination of cloud computing 309 and completion system 310 corresponds to work database 4 shown in FIG. Cloud computing 306 corresponds to the classification unit 16 shown in FIG. Cloud DB 307 corresponds to storage unit 18 shown in FIG.

図15および図16に示す作業分類システムの実装例は次のような機能的構成を活用する。すなわち、図15および図16に示す実装例は、ネットワークに接続された汎用カメラ(Webカメラ)、ネットワークにて同期された時刻データ、クラウド環境またはオンプレミス環境に構築されたAI(Artificial Intelligence;人工知能)等の機械学習モデルおよびML(Machine Learning;機械学習)ツール、クラウド環境またはオンプレミス環境に構築されたデータベースに保管された作業着完データを活用する。
なお、作業区分の分類結果は、例えば、生産効率指標を分析する生産性改善システムにおいて活用することができる。
また、本実装例では、生産性改善システムは、クラウドコンピューティング306で学習済み機械学習モデル207を実行しているが、学習済み機械学習モデル207を実行できるなら、生産性改善システムは、どのように構成されてもよい。変形例として、低レイテンシ(低遅延時間)が要求される分析環境では、生産性改善システムは、汎用カメラ(Webカメラ)に関連して実装されたエッジコンピューティングデバイスで学習済み機械学習モデル207を実行してもよい。
The implementation example of the work classification system shown in FIGS. 15 and 16 utilizes the following functional configuration. That is, the implementation examples shown in FIGS. 15 and 16 include a general-purpose camera (web camera) connected to a network, time data synchronized on a network, and an AI (Artificial Intelligence) built in a cloud environment or an on-premises environment. ), machine learning (ML) tools, and work completion data stored in a database built in a cloud or on-premises environment.
Note that the classification results of the work categories can be utilized, for example, in a productivity improvement system that analyzes production efficiency indicators.
In addition, in this implementation example, the productivity improvement system executes the trained machine learning model 207 on the cloud computing 306, but if the trained machine learning model 207 can be executed, how can the productivity improvement system do it? may be configured. As a variant, in an analysis environment where low latency is required, the productivity improvement system may run the trained machine learning model 207 on an edge computing device implemented in conjunction with a general-purpose camera (web camera). May be executed.

図15および図16に示す作業分類システムによれば、特定の作業領域において過去に経験のない作業であっても、教師あり機械学習により分析可能であり、サイクルタイムが長く頻度の低い作業に汎用的に適用することができる。また、Webカメラにより作業者の撮影を行うことで、作業観測員を配置せず作業者のカメラデータ取得が可能である。また、同期された時刻データにより、複数のカメラにて撮影し、時刻データで結合することができる。Webカメラで取得されたカメラデータは、教師あり学習にて、作業区分(主体作業、準備作業、付随作業、余裕作業(あるいは余裕時間))を学習した学習済モデルにて自動分析し、作業着完データとの整合性確認を実施することができる。なお、分析結果は、データベース上に自動で保管され、作業観測員による入力を要しない。また、主体作業、準備作業、付随作業、余裕作業の定義のみで教師あり学習が完結するため、汎用的な観測が可能である。これにより、サイクルタイムの長い作業の観測が容易に実施できる。また、カメラおよび作業着完データのみを使用するため、例えば狭隘部での作業等への可用性が向上する。また、マーカーの取付が不要なため、作業者の身体的な負担が生じない。 According to the work classification system shown in Figures 15 and 16, even tasks for which there is no previous experience in a specific work area can be analyzed using supervised machine learning, and can be generalized to tasks with long cycle times and low frequency. can be applied to Furthermore, by photographing the worker using a web camera, camera data on the worker can be obtained without deploying a work observer. Also, using synchronized time data, images can be taken with multiple cameras and combined using the time data. Camera data acquired with a web camera is automatically analyzed using a trained model that has learned the work categories (main work, preparatory work, incidental work, slack work (or slack time)) using supervised learning, and It is possible to check consistency with complete data. The analysis results are automatically stored in the database and do not require input by work observers. In addition, since supervised learning is completed only by defining main work, preparatory work, incidental work, and spare work, general-purpose observation is possible. This makes it easy to observe operations with long cycle times. In addition, since only the camera and work clothes data are used, availability for work in narrow spaces, for example, is improved. Furthermore, since there is no need to attach markers, there is no physical burden on the worker.

(作用効果)
上記構成の作業分類装置、作業分類方法、プログラムおよび学習装置では、複数のカメラにより教示作業が撮影された複数の教示画像に基づき、複数の作業区分への教示作業の分類付けが学習された学習済モデルと、複数のカメラにより実作業が撮影された複数の実画像に基づき、実作業を複数の作業区分へ分類する。したがって、実施形態の作業分類装置、作業分類方法、プログラムおよび学習装置によれば、実作業を複数の作業区分へ適切に分類することができる。
(effect)
In the work classification device, work classification method, program, and learning device configured as described above, the learning method learns the classification of teaching work into a plurality of work categories based on a plurality of teaching images captured by a plurality of cameras. The actual work is classified into multiple work categories based on the completed model and multiple real images taken of the actual work by multiple cameras. Therefore, according to the work classification device, work classification method, program, and learning device of the embodiment, actual work can be appropriately classified into a plurality of work categories.

また、上記実施形態では、複数の作業区分が、主体作業、準備作業、付随作業、および余裕作業を含むので、実作業を細やかに分類することができる。 Furthermore, in the embodiment described above, since the plurality of work classifications include main work, preparatory work, incidental work, and extra work, actual work can be classified in detail.

また、上記実施形態では、作業分類装置、作業分類方法、プログラムおよび学習装置は、実画像に含まれている作業工具の分析結果を反映しているので、実作業を細やかに分類することができる。 Furthermore, in the above embodiment, the work classification device, the work classification method, the program, and the learning device reflect the analysis results of the work tools included in the actual image, so that the actual work can be classified in detail. .

また、上記実施形態では、作業分類装置、作業分類方法、プログラムおよび学習装置は、実作業の内容と着手日時と完了日時を記録したデータベース(作業データベース4)を参照しているので、実作業を細やかに分類することができる。 Further, in the above embodiment, the work classification device, the work classification method, the program, and the learning device refer to the database (work database 4) that records the contents of the actual work, the start date and time, and the completion date and time. It can be classified in detail.

(その他の実施形態)
以上、本開示の実施の形態について図面を参照して詳述したが、具体的な構成はこの実施の形態に限られるものではなく、本開示の要旨を逸脱しない範囲の設計変更等も含まれる。例えば、上記実施形態では、作業区分を、主体作業、付随作業、準備作業および余裕作業の4つとしたが、これに限定されない。作業区分は、例えば、主体作業と主体作業以外の作業の2つにしたり、主体作業と付随または準備作業と余裕作業の3つにしたりしてもよい。また、上記実施形態では学習済モデル14への入力を静止画像または動画像としたが、これに限るものではなく、例えば動画像とともに記録されたオーディオデータを入力としてもよい。あるいは、学習済モデル14による分類と並列してオーディオデータの認識処理を行ってもよい。この場合、例えば、所定の作業音の有無等を主体作業であるか否かの判定の要素に加えることができる。
(Other embodiments)
Although the embodiment of the present disclosure has been described above in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and includes design changes within the scope of the gist of the present disclosure. . For example, in the above embodiment, there are four work categories: main work, auxiliary work, preparatory work, and spare work, but the present invention is not limited to this. For example, the work divisions may be divided into two, main work and non-main work, or three, main work, incidental or preparatory work, and extra work. Further, in the above embodiment, the input to the trained model 14 is a still image or a moving image, but the invention is not limited to this, and for example, audio data recorded together with the moving image may be input. Alternatively, audio data recognition processing may be performed in parallel with the classification using the learned model 14. In this case, for example, the presence or absence of a predetermined work sound can be added to the factors for determining whether or not the work is the main work.

〈コンピュータ構成〉
図17は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図を示す。
コンピュータ90は、プロセッサ91、メインメモリ92、ストレージ93、および、インタフェース94を備える。
上述の作業分類装置1は、コンピュータ90に実装される。そして、上述した各処理部の動作は、プログラムの形式でストレージ93に記憶されている。プロセッサ91は、プログラムをストレージ93から読み出してメインメモリ92に展開し、当該プログラムに従って上記処理を実行する。また、プロセッサ91は、プログラムに従って、上述した各記憶部に対応する記憶領域をメインメモリ92に確保する。
<Computer configuration>
FIG. 17 shows a schematic block diagram showing the configuration of a computer according to at least one embodiment.
Computer 90 includes a processor 91, main memory 92, storage 93, and interface 94.
The above-described work classification device 1 is implemented in a computer 90. The operations of each processing section described above are stored in the storage 93 in the form of a program. The processor 91 reads the program from the storage 93, expands it into the main memory 92, and executes the above processing according to the program. Further, the processor 91 reserves storage areas corresponding to each of the above-mentioned storage units in the main memory 92 according to the program.

プログラムは、コンピュータ90に発揮させる機能の一部を実現するためのものであってもよい。例えば、プログラムは、ストレージに既に記憶されている他のプログラムとの組み合わせ、または他の装置に実装された他のプログラムとの組み合わせによって機能を発揮させるものであってもよい。なお、他の実施形態においては、コンピュータは、上記構成に加えて、または上記構成に代えてPLD(Programmable Logic Device)などのカスタムLSI(Large Scale Integrated Circuit)を備えてもよい。PLDの例としては、PAL(Programmable Array Logic)、GAL(Generic Array Logic)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array)等が挙げられる。この場合、プロセッサによって実現される機能の一部または全部が当該集積回路によって実現されてよい。 The program may be for realizing part of the functions to be performed by the computer 90. For example, the program may function in combination with other programs already stored in storage or in combination with other programs installed in other devices. Note that in other embodiments, the computer may include a custom LSI (Large Scale Integrated Circuit) such as a PLD (Programmable Logic Device) in addition to or in place of the above configuration. Examples of PLDs include PAL (Programmable Array Logic), GAL (Generic Array Logic), CPLD (Complex Programmable Logic Device), and FPGA (Field Programmable Gate Array). In this case, some or all of the functions implemented by the processor may be implemented by the integrated circuit.

ストレージ93の例としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気ディスク、光磁気ディスク、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、半導体メモリ等が挙げられる。ストレージ93は、コンピュータ90のバスに直接接続された内部メディアであってもよいし、インタフェース94または通信回線を介してコンピュータ90に接続される外部メディアであってもよい。また、このプログラムが通信回線によってコンピュータ90に配信される場合、配信を受けたコンピュータ90が当該プログラムをメインメモリ92に展開し、上記処理を実行してもよい。少なくとも1つの実施形態において、ストレージ93は、一時的でない有形の記憶媒体である。 Examples of the storage 93 include HDD (Hard Disk Drive), SSD (Solid State Drive), magnetic disk, magneto-optical disk, CD-ROM (Compact Disc Read Only Memory), and DVD-ROM (Digital Versatile Disc Read Only Memory). , semiconductor memory, etc. Storage 93 may be an internal medium connected directly to the bus of computer 90, or may be an external medium connected to computer 90 via an interface 94 or a communication line. Furthermore, when this program is distributed to the computer 90 via a communication line, the computer 90 that received the distribution may develop the program in the main memory 92 and execute the above processing. In at least one embodiment, storage 93 is a non-transitory tangible storage medium.

<付記>
各実施形態に記載の作業分類装置1は、例えば以下のように把握される。
<Additional notes>
The work classification device 1 described in each embodiment is understood as follows, for example.

(1)第1の態様に係る作業分類装置1は、複数のカメラ2により教示作業が撮影された複数の教示画像に基づき、複数の作業区分への前記教示作業の分類付けが学習された学習済モデル14と、前記複数のカメラ2により実作業が撮影された複数の実画像を取得する実画像取得部15と、前記学習済モデル14と前記実画像に基づき、前記実作業を前記複数の作業区分へ分類する分類部16と、を備える。本態様によれば、実作業を複数の作業区分へ適切に分類することができる。 (1) The work classification device 1 according to the first aspect is a learning system in which the classification of the teaching work into a plurality of work categories is learned based on a plurality of teaching images in which the teaching work is photographed by a plurality of cameras 2. a real image acquisition unit 15 that obtains a plurality of real images of the real work taken by the plurality of cameras 2; A classification unit 16 for classifying into work categories is provided. According to this aspect, actual work can be appropriately classified into a plurality of work categories.

(2)第2の態様に係る作業分類装置1は、(1)の作業分類装置1であって、前記複数の作業区分が、主体作業、準備作業、付随作業、および余裕作業を含む。本態様によれば、実作業を細やかに分類することができる。 (2) The work classification device 1 according to the second aspect is the work classification device 1 of (1), in which the plurality of work classifications include main work, preparatory work, auxiliary work, and extra work. According to this aspect, actual work can be classified in detail.

(3)第3の態様に係る作業分類装置1は、(1)または(2)の作業分類装置1であって、前記分類部16は、前記学習済モデル14と前記実画像に基づき、前記実画像に含まれている作業工具の分析結果を反映させて、前記実作業を前記複数の作業区分へ分類する。この態様によれば、より分類精度を高めることができる。 (3) The work classification device 1 according to the third aspect is the work classification device 1 according to (1) or (2), in which the classification unit 16 uses the learned model 14 and the real image to The actual work is classified into the plurality of work categories by reflecting the analysis results of the working tools included in the actual image. According to this aspect, classification accuracy can be further improved.

(4)第4の態様に係る作業分類装置1は、(1)から(3)のいずれか一つの作業分類装置1であって、前記分類部16は、前記学習済モデル14と前記実画像に基づき、前記実作業の内容と着手日時と完了日時を記録したデータベース(作業データベース4)を参照して、前記実作業を前記複数の作業区分へ分類する。この態様によれば、より分類精度を高めることができる。 (4) The work classification device 1 according to the fourth aspect is the work classification device 1 according to any one of (1) to (3), in which the classification unit 16 is configured to combine the learned model 14 and the real image. Based on this, the actual work is classified into the plurality of work categories by referring to a database (work database 4) that records the contents of the actual work, the start date and time, and the completion date and time. According to this aspect, classification accuracy can be further improved.

(5)第5の態様に係る作業分類方法は、複数のカメラ2により実作業が撮影された複数の実画像を取得するステップと、前記複数のカメラ2により教示作業が撮影された複数の教示画像に基づき、複数の作業区分への前記教示作業の分類付けが学習された学習済モデルと前記実画像に基づき、前記実作業を前記複数の作業区分へ分類するステップと、を含む。この態様によれば、実作業を複数の作業区分へ適切に分類することができる。 (5) The work classification method according to the fifth aspect includes the steps of acquiring a plurality of actual images in which the actual work is photographed by the plurality of cameras 2, and a plurality of teaching images in which the teaching work is photographed by the plurality of cameras 2. The method includes the step of classifying the actual work into the plurality of work categories based on the trained model and the actual image, which have learned the classification of the teaching work into the plurality of work categories based on the image. According to this aspect, actual work can be appropriately classified into a plurality of work categories.

(6)第6の態様に係るプログラムは、複数のカメラ2により実作業が撮影された複数の実画像を取得するステップと、前記複数のカメラ2により教示作業が撮影された複数の教示画像に基づき、複数の作業区分への前記教示作業の分類付けが学習された学習済モデルと前記実画像に基づき、前記実作業を前記複数の作業区分へ分類するステップと、をコンピュータに実行させる。この態様によれば、実作業を複数の作業区分へ適切に分類することができる。 (6) The program according to the sixth aspect includes the step of acquiring a plurality of actual images in which the actual work is photographed by the plurality of cameras 2, and the step of acquiring a plurality of actual images in which the teaching work is photographed by the plurality of cameras 2. and classifying the actual work into the plurality of work categories based on the learned model and the actual image, which have learned the classification of the taught work into the plurality of work categories. According to this aspect, actual work can be appropriately classified into a plurality of work categories.

(7)第7の態様に係る学習装置1は、複数のカメラ2により実作業が撮影された複数の実画像を入力するとともに前記実作業を複数の作業区分へ分類した結果を出力する機械学習モデルを、前記複数の作業区分がラベリングされた複数の教示画像に基づき機械学習する機械学習部13を備える。この態様によれば、実作業を複数の作業区分へ適切に分類することができる。 (7) The learning device 1 according to the seventh aspect is a machine learning device that inputs a plurality of real images of real work taken by a plurality of cameras 2 and outputs the results of classifying the real work into a plurality of work categories. A machine learning unit 13 is provided that performs machine learning on the model based on a plurality of teaching images in which the plurality of work categories are labeled. According to this aspect, actual work can be appropriately classified into a plurality of work categories.

100…作業分類システム
1…作業分類装置(学習装置)
2…カメラ
3…作業者端末
4…作業データベース
11…教示画像取得部
12…教示部
13…機械学習部
14…学習済モデル
15…実画像取得部
16…分類部
17…入出力部
18…記憶部
41…レコード
90…コンピュータ
91…プロセッサ
92…メインメモリ
93…ストレージ
94…インタフェース
100…作業分類システム
141…工程分析用学習済モデル
142…工具分析用学習済モデル
201…作業者
202…Webカメラ
203…データベース
204…IE観測者
205…端末
206…機械学習モデル
207…機械学習モデル
301…作業者
302…タブレット端末
303…Webカメラ
304…タイムサーバ
305…クラウドDB
307…クラウドDB
306…クラウドコンピューティング
308…クラウドコンピューティング
309…クラウドコンピューティング
310…着完システム
311…作業監督者
312…端末
100...Work classification system 1...Work classification device (learning device)
2...Camera 3...Worker terminal 4...Work database 11...Taught image acquisition unit 12...Teaching unit 13...Machine learning unit 14...Learned model 15...Actual image acquisition unit 16...Classification unit 17...Input/output unit 18...Storage Unit 41...Record 90...Computer 91...Processor 92...Main memory 93...Storage 94...Interface 100...Work classification system 141...Learned model for process analysis 142...Learned model for tool analysis 201...Worker 202...Web camera 203 …Database 204…IE observer 205…Terminal 206…Machine learning model 207…Machine learning model 301…Worker 302…Tablet terminal 303…Web camera 304…Time server 305…Cloud DB
307...Cloud DB
306...Cloud computing 308...Cloud computing 309...Cloud computing 310...Completion system 311...Work supervisor 312...Terminal

Claims (7)

複数のカメラにより教示作業が撮影された複数の教示画像に基づき、複数の作業区分への前記教示作業の分類付けが学習された学習済モデルと、
前記複数のカメラにより実作業が撮影された複数の実画像を取得する実画像取得部と、
前記学習済モデルと前記実画像に基づき、前記実作業を前記複数の作業区分へ分類する分類部と、
を備える作業分類装置。
a trained model that has learned classification of the teaching work into a plurality of work categories based on a plurality of teaching images taken of the teaching work by a plurality of cameras;
an actual image acquisition unit that acquires a plurality of actual images of actual work taken by the plurality of cameras;
a classification unit that classifies the actual work into the plurality of work categories based on the learned model and the actual image;
A work classification device comprising:
前記複数の作業区分が、主体作業、準備作業、付随作業、および余裕作業を含む
請求項1に記載の作業分類装置。
The work classification device according to claim 1, wherein the plurality of work classifications include main work, preparatory work, incidental work, and slack work.
前記分類部は、前記学習済モデルと前記実画像に基づき、前記実画像に含まれている作業工具の分析結果を反映させて、前記実作業を前記複数の作業区分へ分類する
請求項1または2に記載の作業分類装置。
The classification unit classifies the actual work into the plurality of work categories based on the learned model and the actual image, reflecting an analysis result of a work tool included in the actual image. 2. The work classification device described in 2.
前記分類部は、前記学習済モデルと前記実画像に基づき、前記実作業の内容と着手日時と完了日時を記録したデータベースを参照して、前記実作業を前記複数の作業区分へ分類する
請求項1または2に記載の作業分類装置。
The classification unit classifies the actual work into the plurality of work categories based on the learned model and the actual image, with reference to a database that records the content, start date and time, and completion date and time of the actual work. 2. The work classification device according to 1 or 2.
複数のカメラにより実作業が撮影された複数の実画像を取得するステップと、
前記複数のカメラにより教示作業が撮影された複数の教示画像に基づき、複数の作業区分への前記教示作業の分類付けが学習された学習済モデルと前記実画像に基づき、前記実作業を前記複数の作業区分へ分類するステップと、
を含む作業分類方法。
acquiring a plurality of real images of the actual work taken by a plurality of cameras;
Based on a plurality of teaching images in which the teaching work is photographed by the plurality of cameras, and based on the trained model that has learned to classify the teaching work into a plurality of work categories and the actual image, the actual work is divided into the plurality of teaching images. a step of classifying into work categories;
Work classification methods, including:
複数のカメラにより実作業が撮影された複数の実画像を取得するステップと、
前記複数のカメラにより教示作業が撮影された複数の教示画像に基づき、複数の作業区分への前記教示作業の分類付けが学習された学習済モデルと前記実画像に基づき、前記実作業を前記複数の作業区分へ分類するステップと、
をコンピュータに実行させるプログラム。
acquiring a plurality of real images of the actual work taken by a plurality of cameras;
Based on a plurality of teaching images in which the teaching work is photographed by the plurality of cameras, and based on the trained model that has learned to classify the teaching work into a plurality of work categories and the actual image, the actual work is divided into the plurality of teaching images. a step of classifying into work categories;
A program that causes a computer to execute.
複数のカメラにより実作業が撮影された複数の実画像を入力するとともに前記実作業を複数の作業区分へ分類した結果を出力する機械学習モデルを、前記複数の作業区分がラベリングされた複数の教示画像に基づき機械学習する機械学習部を
備える学習装置。
A machine learning model that inputs a plurality of real images of the actual work taken by a plurality of cameras and outputs the results of classifying the actual work into a plurality of work categories is applied to a plurality of teachings in which the plurality of work categories are labeled. A learning device equipped with a machine learning section that performs machine learning based on images.
JP2022128826A 2022-08-12 2022-08-12 Work classification device, work classification method, program and learning device Pending JP2024025410A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022128826A JP2024025410A (en) 2022-08-12 2022-08-12 Work classification device, work classification method, program and learning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022128826A JP2024025410A (en) 2022-08-12 2022-08-12 Work classification device, work classification method, program and learning device

Publications (1)

Publication Number Publication Date
JP2024025410A true JP2024025410A (en) 2024-02-26

Family

ID=90010989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022128826A Pending JP2024025410A (en) 2022-08-12 2022-08-12 Work classification device, work classification method, program and learning device

Country Status (1)

Country Link
JP (1) JP2024025410A (en)

Similar Documents

Publication Publication Date Title
US11163999B2 (en) Augmented reality-based capture, processing and transfer of occupational knowledge
WO2021120186A1 (en) Distributed product defect analysis system and method, and computer-readable storage medium
CN108564104A (en) Product defects detection method, device, system, server and storage medium
US20110161132A1 (en) Method and system for extracting process sequences
JP2019095217A (en) Visual inspection device
US20070240060A1 (en) System and method for video capture and annotation
CN109542228A (en) A kind of intelligent information record system and method based on wearable device
Back et al. A study for production simulation model generation system based on data model at a shipyard
JP6763035B2 (en) Security inspection simulation training equipment, methods and systems
Kovacs et al. A process model for enhancing digital assistance in knowledge-based maintenance
CN103649912A (en) Method, apparatus, and computer program product for generation of traceability matrices from video media
van der Aalst 12 Process mining and RPA
CN112465288A (en) System and method for automatically capturing technology transfer knowledge
KR20150137704A (en) Management system and method for project
JP7440823B2 (en) Information processing device, information processing method and program
JP2024025410A (en) Work classification device, work classification method, program and learning device
WO2019087275A1 (en) Work analysis device and work analysis method
Abudayyeh A multimedia construction delay management system
JP7428769B2 (en) Human-robot collaboration for flexible and adaptive robot learning
Rashid et al. Construction equipment activity recognition from IMUs mounted on articulated implements and supervised classification
Hüsener et al. The digital twin as a mediator for the digitalization and conservation of expert knowledge
Yang et al. Skeleton-based hand gesture recognition for assembly line operation
US11042274B2 (en) Extracting demonstrations from in-situ video content
Wang et al. Automated ergonomics-based productivity analysis for intelligent manufacturing in industrialized construction
CN112182413A (en) Intelligent recommendation method and server based on big teaching data