JP2023034621A - Work discrimination system - Google Patents

Work discrimination system Download PDF

Info

Publication number
JP2023034621A
JP2023034621A JP2021140947A JP2021140947A JP2023034621A JP 2023034621 A JP2023034621 A JP 2023034621A JP 2021140947 A JP2021140947 A JP 2021140947A JP 2021140947 A JP2021140947 A JP 2021140947A JP 2023034621 A JP2023034621 A JP 2023034621A
Authority
JP
Japan
Prior art keywords
work
information
attribute information
unit
machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021140947A
Other languages
Japanese (ja)
Other versions
JP7106175B1 (en
Inventor
武 三木
Takeshi Miki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Three Fields Corp
Original Assignee
Three Fields Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Three Fields Corp filed Critical Three Fields Corp
Priority to JP2021140947A priority Critical patent/JP7106175B1/en
Priority to JP2022109174A priority patent/JP2023035846A/en
Application granted granted Critical
Publication of JP7106175B1 publication Critical patent/JP7106175B1/en
Publication of JP2023034621A publication Critical patent/JP2023034621A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide a work discrimination system configured to acquire cumulative points of work results and reflect the points in useful information utilization or salary.SOLUTION: A work discrimination system 100 includes: a work analysis and learning unit 106 which determines a standard work pattern 114 for each attribute information, on the basis of a combination of an estimated work pattern composed of combinations of work elements constituting a work, based on processed video information 112 and position information 111, and attribute information 113 extracted by an attribute information extraction unit 104 from video information 110; and a point calculation unit 108 which calculates a matching degree 115 by comparing the work pattern estimated based on the processed video information 112 and the position information 111 with the standard work pattern 114 having the same attribute information as the attribute information 113, and calculates a point value 116 corresponding to the matching degree 115, the point value being transmitted using an alarm 117 or e-mail 118 via a notification unit 109.SELECTED DRAWING: Figure 1

Description

本発明は、作業現場等における人間や機械等の作業を分析して判別するシステムに関する。 The present invention relates to a system that analyzes and discriminates the work of people, machines, etc. at a work site or the like.

従来、建設・工事現場や生産現場等において、作業の抜けや作業者ごとの作業時間を把握するため、作業者が作業を行っている映像や作業者の位置情報を用いて、作業を構成する作業要素を分析する技術が知られている(例えば特許文献1に記載の技術)。この従来技術では、ある時刻における作業者の体の部位や物体の位置情報から、作業者による作業要素を推論している。 Conventionally, at construction sites, production sites, etc., in order to understand work omissions and work time for each worker, work is organized using video of workers doing work and worker position information. Techniques for analyzing work elements are known (for example, the technique described in Patent Document 1). In this prior art, the work element of the worker is inferred from the positional information of the body part of the worker and the object at a certain time.

国際公開第2018/087844号公報International Publication No. 2018/087844

しかしながら、上記従来技術のように、ある時刻に取得した体や物体の位置情報のみから作業要素を推論しその結果を表示等するだけでは、作業工程の改善を行うことはできても、例えば作業要素の分析結果を作業実績や賃金等に客観的に反映させることはできず、活用範囲が限られるという課題があった。 However, just by inferring work elements from only the position information of a body or an object acquired at a certain time and displaying the results, as in the above-described prior art, it is possible to improve the work process, but it is There was a problem that the analysis results of the elements could not be objectively reflected in work results, wages, etc., and the range of utilization was limited.

また、上記従来技術では、例えば建設現場における重機等の機械に対する作業要素を推論することはできなかった。 In addition, in the above-described prior art, it was not possible to infer work elements for machines such as heavy machinery at construction sites, for example.

そこで、本発明の目的は、映像や位置情報を用いて特定の作業員や機械の作業の動きをポイント化(数値化)して視覚化することで、作業実績の蓄積ポイントを取得して有益な情報活用や賃金等に反映することを可能とし、それによって、作業員のやる気を促進したり、逆に、作業員や機械の危険な又は誤った動きに対して警告をすることで、安全性の確保、最終的には労働生産性の向上と品質の向上に繋げることを可能とすることにある。 Therefore, the object of the present invention is to visualize the work movements of specific workers and machines using images and position information as points (digitization), so that it is possible to acquire accumulated points of work results and make them useful. It is possible to use information and reflect it in wages, etc., thereby promoting the motivation of workers, and conversely, by warning against dangerous or erroneous movements of workers and machines, safety It is to make it possible to ensure quality, and ultimately to improve labor productivity and quality.

態様の一例の作業判別システムは、作業員又は作業機械が行う作業に関する作業情報を取得する作業情報取得部と、作業情報から作業の属性を表す属性情報を抽出する属性情報抽出部と、作業情報取得部が取得した作業情報に基づいて作業を構成する複数の作業要素の組合せからなる作業パターンを推定し、その推定した作業パターンと作業情報に対して属性情報抽出部が抽出した属性情報との組合せに基づいて属性情報毎の標準作業パターンを決定し、標準作業パターン記憶部に記憶する作業分析学習部と、作業情報取得部が取得した作業情報に基づいて作業を構成する複数の作業要素の組合せからなる作業パターンを推定し、その推定した作業パターンを、作業情報に対して属性情報抽出部が抽出した属性情報と同じ属性情報を有する標準作業パターン記憶部に記憶されている標準作業パターンと比較することにより一致度を算出し、その一致度に対応するポイント値を算出するポイント算出部と、を備える。 An example of a work determination system includes: a work information acquisition unit that acquires work information related to work performed by a worker or a work machine; an attribute information extraction unit that extracts attribute information representing an attribute of work from the work information; Based on the work information acquired by the acquisition unit, a work pattern consisting of a combination of a plurality of work elements constituting work is estimated, and the attribute information extracted by the attribute information extraction unit for the estimated work pattern and the work information. A work analysis learning unit that determines a standard work pattern for each attribute information based on the combination and stores it in a standard work pattern storage unit; A work pattern consisting of a combination is estimated, and the estimated work pattern is compared with the standard work pattern stored in the standard work pattern storage unit having the same attribute information as the attribute information extracted by the attribute information extraction unit for the work information. and a point calculation unit that calculates a degree of matching by the comparison and calculates a point value corresponding to the degree of matching.

本発明によれば、映像や位置情報を用いて特定の作業員や機械の作業の動きをポイント化(数値化)して視覚化することで、作業実績の蓄積ポイントを取得して有益な情報活用や賃金等に反映することが可能となり、それによって、作業員のやる気を促進したり、逆に、作業員や機械の危険な又は誤った動きに対して警告をすることで、安全性の確保、最終的には労働生産性の向上と品質の向上に繋げることが可能となる。 According to the present invention, by visualizing the work movements of a specific worker or machine using video and positional information as points (digitization), it is possible to obtain accumulated points of work results and obtain useful information. It is possible to reflect it in utilization and wages, etc., thereby promoting the motivation of workers, and conversely, by warning against dangerous or incorrect movements of workers and machines, safety is improved. It will be possible to secure and ultimately improve labor productivity and quality.

作業判別システムの実施形態のブロック図である。1 is a block diagram of an embodiment of a work discrimination system; FIG. 映像情報取得部の具体例を示す構成図である。FIG. 3 is a configuration diagram showing a specific example of an image information acquisition unit; 位置情報取得部の具体例を示す構成図である。FIG. 4 is a configuration diagram showing a specific example of a position information acquisition unit; 作業分析学習処理の例を示すフローチャートである。9 is a flowchart showing an example of work analysis learning processing; ポイント算出処理の例を示すフローチャートである。9 is a flowchart showing an example of point calculation processing;

以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。図1は、作業判別システムの実施形態のブロック図である。作業判別システム100は、共に作業情報取得部の一部であって、映像情報取得部101及び位置情報取得部102と、映像情報処理部103と、属性情報抽出部104と、属性情報データベース105(以下「属性情報DB105」と記載)と、作業分析学習部106と、標準作業パターン記憶部107と、ポイント算出部108と、通知部109とを備える。 EMBODIMENT OF THE INVENTION Hereinafter, it demonstrates in detail, referring drawings for the form for implementing this invention. FIG. 1 is a block diagram of an embodiment of a work discrimination system. The work determination system 100 is both a part of the work information acquisition unit, and includes a video information acquisition unit 101, a position information acquisition unit 102, a video information processing unit 103, an attribute information extraction unit 104, and an attribute information database 105 ( hereinafter referred to as “attribute information DB 105 ”), a work analysis learning unit 106 , a standard work pattern storage unit 107 , a point calculation unit 108 and a notification unit 109 .

映像情報取得部101は、建設現場、工事現場、又は生産現場等の作業員又は作業機械が行う作業を撮像して得られる映像情報110を作業情報として取得する。図2は、映像情報取得部101の具体例を示す構成図である。
例えば、建設現場、工事現場、又は生産現場に設置された1台以上のカメラ201が撮像した映像情報が、校内に設置されたWiFiルータ装置202からインターネット203を介して、映像情報110として、図1の作業判別システム100であるインターネット203に接続された特には図示しないサーバ装置に集約される。
また、作業員のヘルメットに装着されたウェアラブルカメラ204が撮像した映像情報が、上記と同様のWiFiルータ装置202からインターネット203を介して、映像情報110として、上記サーバ装置に集約される。
The image information acquisition unit 101 acquires image information 110 obtained by imaging work performed by a worker or a working machine at a construction site, construction site, production site, or the like, as work information. FIG. 2 is a configuration diagram showing a specific example of the video information acquisition unit 101. As shown in FIG.
For example, video information captured by one or more cameras 201 installed at a construction site, a construction site, or a production site is transmitted from a WiFi router device 202 installed in a school via the Internet 203 to the image information 110 shown in FIG. It is aggregated in a server device (not shown) connected to the Internet 203, which is one work determination system 100. FIG.
Further, video information captured by the wearable camera 204 attached to the worker's helmet is aggregated in the server device as video information 110 via the Internet 203 from the WiFi router device 202 similar to that described above.

位置情報取得部102は、作業員又は作業機械の作業位置を示す位置情報111を作業情報として取得する。図3は、位置情報取得部102の具体例を示す構成図である。
例えば、作業機械300には、準天頂衛星301、302、303などからの、GPS、GLONASS、QZSSなどの高精度の測位情報を毎秒受信するマルチGNSS端末が、位置情報取得部102として搭載される。この端末はまた、QZSSL1‐S(サブメータ級)やL6(センチメータ級)の補強信号を利用して、位置測位誤差の補正を行う。
また、ビルなどの屋内にはIMES端末が、位置情報取得部102として設置される。
これらの端末から得られる位置情報111は、インターネット等を介して、前述したサーバ装置に集約される。
The position information acquisition unit 102 acquires position information 111 indicating the work position of the worker or work machine as work information. FIG. 3 is a configuration diagram showing a specific example of the position information acquisition unit 102. As shown in FIG.
For example, the work machine 300 is equipped with a multi-GNSS terminal that receives highly accurate positioning information such as GPS, GLONASS, and QZSS from the quasi-zenith satellites 301, 302, and 303 every second as the position information acquisition unit 102. . The terminal also utilizes QZSSL1-S (submeter class) and L6 (centimeter class) augmentation signals to correct for positioning errors.
Also, an IMES terminal is installed indoors such as a building as the position information acquisition unit 102 .
Location information 111 obtained from these terminals is aggregated in the aforementioned server device via the Internet or the like.

図1の説明に戻り、属性情報DB105は、作業員又は作業機械の外観画像と作業員又は作業機械が属する属性とのデータ組を記憶する。 Returning to the description of FIG. 1, the attribute information DB 105 stores a data set of an appearance image of a worker or a working machine and attributes to which the worker or the working machine belongs.

属性情報抽出部104は、映像情報110から、作業の属性を表す属性情報113を抽出する。より具体的には、属性情報抽出部104は、属性情報DB105に記憶された各データ組のうち、夫々のデータ組の外観画像が映像情報110に対して外観認識処理を実行して得られる外観画像と一致するデータ組に対応する属性情報を、属性情報113として抽出する、
上述の外観画像は例えば、作業員に対応する映像情報110に対して外観認識処理である顔認識処理を実行して得られる顔画像である。
又は、上述の外観画像は例えば、作業機械に対応する映像情報110に対して外観認識処理である機械輪郭の認識処理を実行して得られる機械輪郭画像である。
The attribute information extraction unit 104 extracts from the video information 110 attribute information 113 representing the attribute of work. More specifically, the attribute information extraction unit 104 extracts an appearance image obtained by performing an appearance recognition process on the image information 110 to obtain an appearance image of each data set among the data sets stored in the attribute information DB 105 . extracting the attribute information corresponding to the data set that matches the image as attribute information 113;
The appearance image described above is, for example, a face image obtained by performing face recognition processing, which is appearance recognition processing, on the video information 110 corresponding to the worker.
Alternatively, the appearance image described above is, for example, a machine contour image obtained by performing machine contour recognition processing, which is appearance recognition processing, on the video information 110 corresponding to the working machine.

映像情報処理部103は、映像情報110に対して所定の処理を行うことにより、処理済み映像情報112を出力する。
処理済み映像情報112は例えば、動画である映像情報110に対して、上記所定の処理としてタイムラプス処理を実行して得られるタイムラプス映像データであってよい。
又は、処理済み映像情報112は例えば、動画である映像情報110の各フレーム画像から、画像の特徴量抽出を行って得られる画像特徴量データであってよい。
The video information processing unit 103 outputs processed video information 112 by performing predetermined processing on the video information 110 .
The processed video information 112 may be, for example, time-lapse video data obtained by performing time-lapse processing as the predetermined processing on the video information 110, which is a moving image.
Alternatively, the processed image information 112 may be, for example, image feature amount data obtained by extracting image feature amounts from each frame image of the image information 110, which is a moving image.

作業分析学習部106は、作業分析学習処理を実行する。図4は、作業分析学習処理の例を示すフローチャートである。この処理は例えば、特には図示しないが、前述したサーバ装置のプロセッサが、メモリに記憶された作業分析学習処理プログラムを実行する動作である。 The work analysis learning unit 106 executes work analysis learning processing. FIG. 4 is a flowchart illustrating an example of work analysis learning processing. For example, although not shown, this processing is an operation in which the processor of the server device executes a work analysis learning processing program stored in the memory.

図4のフローチャートの処理において、まず、図1の映像情報処理部103から、処理済み映像情報112が入力されるまで待機する(ステップS401の判定がNOの繰返し)。 In the processing of the flowchart of FIG. 4, first, the processing waits until the processed video information 112 is input from the video information processing unit 103 of FIG. 1 (repeated determination of NO in step S401).

ステップS401の判定がYESになったら、位置情報取得部102から位置情報111が取得される(ステップS402)。 If the determination in step S401 is YES, the position information 111 is obtained from the position information obtaining unit 102 (step S402).

次に、ステップS401で取得された処理済み映像情報112とステップS402で取得された位置情報111とに基づいて、一連の作業を構成する複数の作業要素が抽出される(ステップS403)。作業要素は例えば、作業員であれば、資材を運ぶ、資材を組み立てる、ネジを締める等の個々の作業である。 Next, based on the processed video information 112 acquired in step S401 and the position information 111 acquired in step S402, a plurality of work elements constituting a series of work are extracted (step S403). The work elements are, for example, the individual tasks of a worker, such as carrying materials, assembling materials, tightening screws, and the like.

次に、処理済み映像情報112から、ステップS403で抽出された作業要素毎の時間が抽出される(ステップS404)。 Next, the time for each work element extracted in step S403 is extracted from the processed video information 112 (step S404).

そして、ステップS401~S404で得られた情報に基づいて、作業パターンが推定される(ステップS405)。 Based on the information obtained in steps S401 to S404, work patterns are estimated (step S405).

更に、ステップS401の処理済み映像情報112のもとの映像情報110に対して属性情報抽出部104で得られている属性情報113が取得される(ステップS406)。 Further, the attribute information 113 obtained by the attribute information extracting unit 104 is obtained for the original video information 110 of the processed video information 112 in step S401 (step S406).

そして、ステップS405で推定された作業パターンと、ステップS406で取得された属性情報113との組合せに基づいて、属性情報毎の標準作業パターン114が決定され、その標準作業パターン114が、上記属性情報113とともに、図1の標準作業パターン記憶部107に記憶される(ステップS406)。その後再び、ステップS401の待機状態に戻る。 Based on the combination of the work pattern estimated in step S405 and the attribute information 113 acquired in step S406, the standard work pattern 114 for each attribute information is determined. 113 are stored in the standard work pattern storage unit 107 in FIG. 1 (step S406). After that, it returns to the standby state of step S401 again.

ここで、図1の作業分析学習部106は、属性情報113毎の標準作業パターン114を、例えば機械学習により決定してよい。より具体的には、作業分析学習部106は、属性情報113毎の標準作業パターン114をディープニューラルネットワークを用いた機械学習により決定してよい。 Here, the work analysis learning unit 106 of FIG. 1 may determine the standard work pattern 114 for each attribute information 113 by machine learning, for example. More specifically, the work analysis learning unit 106 may determine the standard work pattern 114 for each attribute information 113 by machine learning using a deep neural network.

図1のポイント算出部108は、ポイント算出処理を実行する。図5は、ポイント算出処理の例を示すフローチャートである。この処理は例えば、図4の場合と同様に、特には図示しないが、前述したサーバ装置のプロセッサが、メモリに記憶されたポイント算出処理プログラムを実行する動作である。 The point calculation unit 108 in FIG. 1 executes point calculation processing. FIG. 5 is a flowchart illustrating an example of point calculation processing. This processing is, for example, similar to the case of FIG. 4, although not shown, the processor of the server device described above executes the point calculation processing program stored in the memory.

図5のフローチャートの処理において、まず、図1の映像情報処理部103から、処理済み映像情報112が入力されるまで待機する(ステップS501の判定がNOの繰返し)。 In the processing of the flowchart of FIG. 5, first, the processing waits until the processed video information 112 is input from the video information processing unit 103 of FIG. 1 (repeated determination of NO in step S501).

ステップS501の判定がYESになったら、位置情報取得部102から位置情報111が取得される(ステップS502)。 If the determination in step S501 is YES, the position information 111 is obtained from the position information obtaining unit 102 (step S502).

次に、ステップS501で取得された処理済み映像情報112とステップS502で取得された位置情報111とに基づいて、一連の作業を構成する複数の作業要素が抽出される(ステップS503)。 Next, based on the processed video information 112 acquired in step S501 and the position information 111 acquired in step S502, a plurality of work elements constituting a series of work are extracted (step S503).

次に、処理済み映像情報112から、ステップS503で抽出された作業要素毎の時間が抽出される(ステップS504)。 Next, the time for each work element extracted in step S503 is extracted from the processed video information 112 (step S504).

そして、ステップS501~S504で得られた情報に基づいて、作業パターンが推定される(ステップS505)。 Based on the information obtained in steps S501 to S504, work patterns are estimated (step S505).

その後、ステップS501の処理済み映像情報112のもとの映像情報110に対して属性情報抽出部104で得られている属性情報113が取得される(ステップS506)。 After that, the attribute information 113 obtained by the attribute information extracting unit 104 is obtained for the original video information 110 of the processed video information 112 in step S501 (step S506).

そして、図1の標準作業パターン記憶部107がアクセスされて、ステップS505で推定された作業パターンが、ステップS506で取得された属性情報113と同じ属性情報113を有する標準作業パターン記憶部107内の標準作業パターン114と比較されて、両者の一致度115が算出される(ステップS507)。 Then, the standard work pattern storage unit 107 in FIG. 1 is accessed, and the work pattern estimated in step S505 is stored in the standard work pattern storage unit 107 having the same attribute information 113 as the attribute information 113 acquired in step S506. It is compared with the standard work pattern 114 to calculate the matching degree 115 between them (step S507).

最後に、ステップS507で算出された一致度に対応するポイント値116が、図1のポイント算出部108から通知部109に出力される(ステップS508)。その後再び、ステップS501の待機状態に戻る。 Finally, the point value 116 corresponding to the degree of matching calculated in step S507 is output from the point calculation unit 108 in FIG. 1 to the notification unit 109 (step S508). After that, it returns to the standby state of step S501 again.

図1の説明に戻り、通知部109は、ポイント算出部108が算出したポイント値に応じて、発報通知117又はメール通知118の何れか又は両方を実施する。 Returning to the description of FIG. 1 , the notification unit 109 performs either or both of the alarm notification 117 and the email notification 118 according to the point value calculated by the point calculation unit 108 .

以上説明した実施形態により、例えば、映像、位置情報を用いて特定の行動、作業等の動きをポイント化(数値化)して視覚化することで、行動実績の蓄積ポイントを取得して有益な情報活用や賃金等に反映し、やる気を促進したり、逆に危険な行為を蓄積ポイントとして警告をする事で安全性の確保、最終的には労働生産性の向上と品質の向上に繋げることが可能となる。 According to the above-described embodiment, for example, by visualizing specific actions and movements such as work using video and position information, points (digitization) are obtained, and accumulated points of action results can be acquired and useful. Reflecting on information utilization and wages, promoting motivation, conversely, by warning dangerous behavior as accumulation points, ensuring safety, ultimately leading to improvement of labor productivity and quality. becomes possible.

例えば、工場の作業工程において作業始点を指定して作業判別システム100が動作を開始する。次に、図1において、映像情報110と位置情報111を用いて作業員や作業機械等の動作が自動計測され、作業分析学習部106により、AI等を用いて動きが標準作業パターン114として解析される。更に、ポイント算出部108が、各作業員や作業機械の作業をポイント化して、データの良し悪しなどの判断されたポイントデータが出力され、特には図示しないハードディスクなどに蓄積される。
このように、各業務に従事する従業員や作業機械の動作を映像情報110及び位置情報111に基づいてポイント化することで、業務の実績管理(時間、工程を厳守しているか否か、不穏な動きをしていないか否か)に繋げることが可能となる。
For example, the work determination system 100 starts operating by designating a work start point in a factory work process. Next, in FIG. 1, the motions of workers, working machines, etc. are automatically measured using video information 110 and position information 111, and the motions are analyzed as standard work patterns 114 using AI etc. by the work analysis learning unit 106. be done. Furthermore, the point calculation unit 108 converts the work of each worker and work machine into points, outputs the point data judged as good or bad, and stores the point data in a hard disk (not shown).
In this way, by scoring the actions of employees and work machines engaged in each task based on the video information 110 and the position information 111, it is possible to manage the performance of the task (whether or not the time and process are strictly observed, It is possible to connect to the

また、業者、正社員、業務委託、アルバイト毎の人事データ等の個々の様々な属性情報113にポイントを付与して蓄積することで、将来的には例えば特定の顧客毎にビッグデータ化し、データマイニング等を活用してあらゆる業種向けの行動分析、マーケティングデータや、重機、自動清掃車等の作業機械の解析データの基礎データとして活用することが可能となる。 In addition, by giving points to and accumulating various individual attribute information 113 such as personnel data for vendors, full-time employees, subcontractors, and part-time workers, in the future, for example, for each specific customer, big data can be generated and data mining can be performed. , etc., can be used as basic data for behavior analysis and marketing data for all industries, and analysis data for work machines such as heavy machinery and automatic cleaning vehicles.

このように、本実施形態では、業者なのか正社員なのか業務委託なのかアルバイトなのか、他の危険人物なのか等を属性情報113として判別し、作業パターンを証拠として利用することが可能となる。正当な人物であれば、真面目に働いている等の人事評価、勤怠記録等ができる。建設土木現場等には、業者、正社員、業務委託(例えば親方や職人)、アルバイト等の様々な人間がおり、良い人間、悪い人間等がいろいろ入り込んでいるが、そういった個々の人間が所定の動線を守っているか、普通の動きをしている人間が或る動線を超える傾向があるか否か等を行動分析するための基礎データが得られる。本実施形態では、これらが数値データ、ポイントデータとして取得することが可能となる。 As described above, in this embodiment, it is possible to determine whether the person is a contractor, a full-time employee, a contractor, a part-time worker, or another dangerous person as the attribute information 113, and use the work pattern as evidence. . If it is a legitimate person, it is possible to perform personnel evaluation, attendance record, etc. such as working seriously. There are various people such as contractors, full-time employees, outsourced workers (for example, masters and craftsmen), and part-time workers at construction and civil engineering sites. Basic data can be obtained for behavioral analysis, such as whether a person is following a line, or whether a person making normal movements tends to cross a certain line of movement, and the like. In this embodiment, these can be obtained as numerical data and point data.

本実施形態では、映像情報110(諸映像情報110)や位置情報111について、夫々が正しい動きをしているか否か、安全な動きをしているか否か等について、例えばディープラーニング等の機械学習による作業分析学習処理により、判別することが可能となる。 In this embodiment, for the image information 110 (various image information 110) and the position information 111, machine learning such as deep learning is used to determine whether or not each of them is moving correctly and whether or not they are moving safely. It is possible to determine by the work analysis learning process by .

また、作業員の場合、RFIDのような位置情報を把握できるデバイスをIDカード等に付けることで、あまり動いてはいけない部屋、そもそも入室できない部屋等の判別も含めて、どの部屋で正しい動きをしているかが判別可能となる。 In the case of workers, by attaching a device such as an RFID to an ID card that can grasp positional information, it is possible to determine which room the worker should move in, including the room where they should not move much, and the room that they cannot enter in the first place. It becomes possible to determine whether or not

更に、本実施形態では、図1の通知部109の機能により、よっぽど危険な作業パターンについては、発報117を行うことができる。
或いは、通知部109は、それほど危険ではない作業パターンについては、詳細データと共に、メール118で飛ばす等の処理を実行することができる。
Furthermore, in this embodiment, the function of the notification unit 109 in FIG. 1 can issue a warning 117 for extremely dangerous work patterns.
Alternatively, the notification unit 109 can perform processing such as skipping by mail 118 together with detailed data for work patterns that are not so dangerous.

本実施形態によれば、間違った区域(部屋)に間違った重機が入っていないか否か、入った場合のアラート発報を、映像情報110と位置情報111とに基づいて判別・検出することが可能となる。 According to the present embodiment, whether or not the wrong heavy machinery is in the wrong area (room), and whether or not an alert is issued when it enters, is determined and detected based on the video information 110 and the position information 111. becomes possible.

本実施形態によれば、朝9時から夕方17時まで重機が区域から出ることなく反復の動きをすることの確認なども可能となる。 According to this embodiment, it is also possible to confirm that the heavy machinery performs repetitive movements without leaving the area from 9:00 in the morning to 17:00 in the evening.

或いは、本実施形態によれば、例えば道路舗装工事において、業者の重機が所定の反復回数のローラを実施したか否か、実施していない場合のアラート発報の判別・検出等が可能となる。従来は、業者任せであったため、孫請けの職人までは施工の正当性を追うことが難しかったが、本実施形態の導入によりそれが可能となる。 Alternatively, according to this embodiment, for example, in road paving work, it is possible to determine whether or not the contractor's heavy machinery has performed the rollers for a predetermined number of repetitions, and to determine and detect an alert if not performed. . Conventionally, it was left up to the contractor, so it was difficult for subcontractors to pursue the legitimacy of construction, but the introduction of this embodiment makes it possible.

例えば河川工事の場合、川辺りに行きやすく、重機の存在で危険になったり、沼地に作業員が沈んでしまったりする場合がある。映像情報110を軸にして位置情報111と合わせて、作業員や作業機械の行動を分析して数値化することが可能となる。 For example, in the case of river construction, it is easy to go to the riverside, and the presence of heavy machinery can be dangerous, and workers may sink in the swamp. By using the image information 110 as an axis and combining it with the position information 111, it is possible to analyze and quantify the behavior of workers and working machines.

作業始点の特定としては、時刻とIDが特定できればどのような方法でもよい。例えば、バーコード読取り、映像の開始時点、RFIDで読み取った時点などが利用できる。 Any method may be used to specify the work start point as long as the time and ID can be specified. For example, barcode reading, video start time, RFID read time, etc. can be used.

位置情報111としては、図3で説明したように、GPSだけではなく、準天頂衛星のL1(メートル級)とL6(センチメートル級)の補正信号を使ったセンチメートル誤差の位置情報を使うことが可能である。屋内では、衛星からの位置情報は補足できないので、RFIDやビーコンとの併用が可能である。また、行動に伴う位置情報111は、英所に基づく特定の作業員や作業機械の認識と、その空間座標の算出に基づいて抽出してもよい。 As the position information 111, as described in FIG. 3, not only GPS but also position information with a centimeter error using correction signals of L1 (meter class) and L6 (centimeter class) of quasi-zenith satellites can be used. is possible. Since location information from satellites cannot be captured indoors, RFID and beacons can be used together. Also, the position information 111 associated with the action may be extracted based on recognition of a specific worker or work machine based on English and calculation of its spatial coordinates.

本実施形態によれば、作業員の場合、危険な機械の周辺には一般人は立ち入らせない、担当者でも限定する等の措置が可能である。属性情報113に基づいて、運転する資格の無い(無免許、免許失効の)人がフォークリフトに近づいてきている等を検出することもできる。 According to this embodiment, in the case of workers, it is possible to take measures such as not allowing ordinary people to enter the vicinity of dangerous machines and limiting the number of persons in charge. Based on the attribute information 113, it is also possible to detect that a person who is not qualified to drive (unlicensed, license expired) is approaching the forklift.

本実施形態により算出されるポイント値を用いることにより、人事評価、安全評価等が可能になる。 Personnel evaluation, safety evaluation, and the like can be performed by using the point values calculated according to the present embodiment.

100 作業判別システム
101 映像情報取得部
102 位置情報取得部
103 映像情報処理部
104 属性情報抽出部
105 属性情報DB
106 作業分析学習部
107 標準作業パターン記憶部
108 ポイント算出部
109 通知部
110 映像情報
111 位置情報
112 処理済み映像情報
113 属性情報
114 標準作業パターン
115 一致度
116 ポイント値
117 発報
118 メール
100 work determination system 101 image information acquisition unit 102 position information acquisition unit 103 image information processing unit 104 attribute information extraction unit 105 attribute information DB
106 work analysis learning unit 107 standard work pattern storage unit 108 point calculation unit 109 notification unit 110 image information 111 position information 112 processed image information 113 attribute information 114 standard work pattern 115 matching degree 116 point value 117 notification 118 mail

Claims (10)

作業員又は作業機械が行う作業に関する作業情報を取得する作業情報取得部と、
前記作業情報から前記作業の属性を表す属性情報を抽出する属性情報抽出部と、
前記作業情報取得部が取得した前記作業情報に基づいて前記作業を構成する複数の作業要素の組合せからなる作業パターンを推定し、該推定した作業パターンと前記作業情報に対して前記属性情報抽出部が抽出した前記属性情報との組合せに基づいて前記属性情報毎の標準作業パターンを決定し、標準作業パターン記憶部に記憶する作業分析学習部と、
前記作業情報取得部が取得した前記作業情報に基づいて前記作業を構成する複数の作業要素の組合せからなる作業パターンを推定し、該推定した作業パターンを、前記作業情報に対して前記属性情報抽出部が抽出した前記属性情報と同じ属性情報を有する前記標準作業パターン記憶部に記憶されている前記標準作業パターンと比較することにより一致度を算出し、該一致度に対応するポイント値を算出するポイント算出部と、
を備える作業判別システム。
a work information acquisition unit that acquires work information related to work performed by a worker or a work machine;
an attribute information extraction unit that extracts attribute information representing attributes of the work from the work information;
estimating a work pattern consisting of a combination of a plurality of work elements constituting the work based on the work information acquired by the work information acquisition unit, and the attribute information extraction unit for the estimated work pattern and the work information; A work analysis learning unit that determines a standard work pattern for each attribute information based on the combination with the attribute information extracted by and stores it in a standard work pattern storage unit;
estimating a work pattern consisting of a combination of a plurality of work elements constituting the work based on the work information acquired by the work information acquisition unit, and applying the estimated work pattern to the work information to extract the attribute information; a degree of matching is calculated by comparing with the standard work pattern stored in the standard work pattern storage unit having the same attribute information as the attribute information extracted by the unit, and a point value corresponding to the degree of matching is calculated. a point calculation unit;
work discrimination system.
前記作業情報は、前記作業員又は前記作業機械が行う作業を撮像して得られる映像情報を含む、請求項1に記載の作業判別システム。 2. The work determination system according to claim 1, wherein said work information includes video information obtained by imaging work performed by said worker or said work machine. 前記作業情報は、前記映像情報に対して所定の処理を行って得られる処理済み映像情報を含む、請求項2に記載の作業判別システム。 3. The work determination system according to claim 2, wherein said work information includes processed image information obtained by performing predetermined processing on said image information. 前記作業員又は前記作業機械の外観画像と前記作業員又は前記作業機械が属する属性とのデータ組を記憶する属性情報データベースを更に備え、
前記属性情報抽出部は、前記属性情報データベースに記憶された前記各データ組のうち、該データ組の外観画像が前記映像情報に対して外観認識処理を実行して得られる外観画像と一致するデータ組に対応する属性情報を抽出する、
請求項2又は3に記載の作業判別システム。
further comprising an attribute information database that stores a data set of an external image of the worker or the work machine and attributes to which the worker or the work machine belongs;
The attribute information extracting unit extracts, from among the data sets stored in the attribute information database, data in which an appearance image of the data set matches an appearance image obtained by performing appearance recognition processing on the video information. extract attribute information corresponding to the tuple,
The work discrimination system according to claim 2 or 3.
前記外観画像は、前記作業員に対応する映像情報に対して前記外観認識処理である顔認識処理を実行して得られる顔画像である、請求項4に記載の作業判別システム。 5. The work determination system according to claim 4, wherein said appearance image is a face image obtained by executing face recognition processing, which is said appearance recognition processing, on video information corresponding to said worker. 前記外観画像は、前記作業機械に対応する映像情報に対して前記外観認識処理である機械輪郭の認識処理を実行して得られる機械輪郭画像である、請求項4に記載の作業判別システム。 5. The work determination system according to claim 4, wherein said appearance image is a machine contour image obtained by executing machine contour recognition processing, which is said appearance recognition processing, on video information corresponding to said work machine. 前記作業情報は前記作業員又は前記作業機械の作業位置を示す位置情報を更に含む、請求項2乃至6の何れかに記載の作業判別システム。 7. The work determination system according to any one of claims 2 to 6, wherein said work information further includes position information indicating a work position of said worker or said work machine. 前記作業分析学習部は、前記属性情報毎の標準作業パターンを機械学習により決定する、請求項1乃至7の何れかに記載の作業判別システム。 8. The work determination system according to any one of claims 1 to 7, wherein said work analysis learning unit determines a standard work pattern for each attribute information by machine learning. 前記作業分析学習部は、前記属性情報毎の標準作業パターンをディープニューラルネットワークを用いた機械学習により決定する、請求項8に記載の作業判別システム。 9. The work determination system according to claim 8, wherein said work analysis learning unit determines a standard work pattern for each attribute information by machine learning using a deep neural network. 前記ポイント算出部が算出した前記ポイント値に応じて、発報通知又はメール通知の何れか又は両方を実施する通知部を更に備える、請求項1乃至9の何れかに記載の作業判別システム。 10. The work determination system according to any one of claims 1 to 9, further comprising a notification unit that performs either or both of an alarm notification and an email notification according to the point value calculated by the point calculation unit.
JP2021140947A 2021-08-31 2021-08-31 Work discrimination system Active JP7106175B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021140947A JP7106175B1 (en) 2021-08-31 2021-08-31 Work discrimination system
JP2022109174A JP2023035846A (en) 2021-08-31 2022-07-06 Work discrimination system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021140947A JP7106175B1 (en) 2021-08-31 2021-08-31 Work discrimination system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022109174A Division JP2023035846A (en) 2021-08-31 2022-07-06 Work discrimination system

Publications (2)

Publication Number Publication Date
JP7106175B1 JP7106175B1 (en) 2022-07-26
JP2023034621A true JP2023034621A (en) 2023-03-13

Family

ID=82593793

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021140947A Active JP7106175B1 (en) 2021-08-31 2021-08-31 Work discrimination system
JP2022109174A Pending JP2023035846A (en) 2021-08-31 2022-07-06 Work discrimination system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022109174A Pending JP2023035846A (en) 2021-08-31 2022-07-06 Work discrimination system

Country Status (1)

Country Link
JP (2) JP7106175B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006171184A (en) * 2004-12-14 2006-06-29 Toshiba Corp System and method for skill evaluation
JP2019200560A (en) * 2018-05-16 2019-11-21 パナソニックIpマネジメント株式会社 Work analyzing device and work analyzing method
JP2020034849A (en) * 2018-08-31 2020-03-05 オムロン株式会社 Work support device, work support method, and work support program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006171184A (en) * 2004-12-14 2006-06-29 Toshiba Corp System and method for skill evaluation
JP2019200560A (en) * 2018-05-16 2019-11-21 パナソニックIpマネジメント株式会社 Work analyzing device and work analyzing method
JP2020034849A (en) * 2018-08-31 2020-03-05 オムロン株式会社 Work support device, work support method, and work support program

Also Published As

Publication number Publication date
JP2023035846A (en) 2023-03-13
JP7106175B1 (en) 2022-07-26

Similar Documents

Publication Publication Date Title
Fang et al. A deep learning-based method for detecting non-certified work on construction sites
Kopsida et al. A review of automated construction progress monitoring and inspection methods
JP6452186B2 (en) Insurance compensation fraud prevention method, system, apparatus and readable recording medium based on coincidence of multiple photos
US9911041B2 (en) Monitoring device, monitoring system and monitoring method
JP4743522B2 (en) Image data recording method, work result recording method using image data, image data recording apparatus, and work result recording system using image data
Kalyan et al. Construction quality assessment using 3D as-built models generated with Project Tango
CN114140999B (en) Project supervision system based on communication of Internet of things
CN111724496A (en) Attendance checking method, attendance checking device and computer readable storage medium
CN111457854A (en) Deformation monitoring method and device based on building
CN113344745A (en) Engineering project intelligent construction site data acquisition and analysis integrated cloud platform based on remote video monitoring and cloud computing
CN110717358A (en) Visitor number counting method and device, electronic equipment and storage medium
JP2013156912A (en) Maintenance support system for equipment and equipment maintenance server
Feng et al. Computer vision for structural dynamics and health monitoring
CN112990168B (en) Illegal land monitoring method and system
JP7106175B1 (en) Work discrimination system
KR20230086087A (en) Construction site supervision apparatus and supervision method using 3D scanning
CN114821497A (en) Method, device and equipment for determining position of target object and storage medium
Qureshi et al. Factors affecting the implementation of automated progress monitoring of rebar using vision-based technologies
CN112367397A (en) Monitoring and early warning method and system for field work, computer equipment and storage medium
Bosche et al. Automated retrieval of project three-dimensional CAD objects in range point clouds to support automated dimensional QA/QC
JP2012023414A (en) Simulation apparatus, simulation method, and program
CN111444570A (en) Construction error information acquisition method and device
Hui et al. Automated in-placed brick counting for façade construction progress estimation
JP2020135307A (en) Evaluation system
JP7330043B2 (en) Work state determination device, work state determination method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210903

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220506

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220706

R150 Certificate of patent or registration of utility model

Ref document number: 7106175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150