JP2020008932A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2020008932A
JP2020008932A JP2018126755A JP2018126755A JP2020008932A JP 2020008932 A JP2020008932 A JP 2020008932A JP 2018126755 A JP2018126755 A JP 2018126755A JP 2018126755 A JP2018126755 A JP 2018126755A JP 2020008932 A JP2020008932 A JP 2020008932A
Authority
JP
Japan
Prior art keywords
detection
label
work
image processing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018126755A
Other languages
Japanese (ja)
Inventor
邦彦 三好
Kunihiko Miyoshi
邦彦 三好
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018126755A priority Critical patent/JP2020008932A/en
Publication of JP2020008932A publication Critical patent/JP2020008932A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Image Analysis (AREA)
  • General Factory Administration (AREA)

Abstract

To improve collation accuracy in determining whether an operation is correctly conducted or not.SOLUTION: An image processing device comprises: generation means which generates detection label sequences on the basis of operation detection results in an attention area of a video obtained by capturing the operation; dividing means which divides the detection label sequences into a plurality of partial detection label sequences on the basis of information on an operating environment; selection means which selects a method for collating each of the plurality of detection label sequences with a reference label sequence; and collation means which collates the plurality of partial detection label sequences and the reference label sequence by the collation method selected by the selection means.SELECTED DRAWING: Figure 6

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing device, an image processing method, and a program.

従来、工場の組立作業が正しく行われているかを分析する手法として、組立作業のシーンを撮影した映像中の作業員の動きを解析し、作業手順書の記載内容に照らし合わせる手法が知られている。例えば、映像中の組立作業の発生する箇所に矩形を設定して、その矩形に手が入ったかどうかで組立作業を実施したかを判定する手法がある(特許文献1参照)。   Conventionally, as a method of analyzing whether the assembly work of a factory is performed correctly, a method of analyzing a movement of a worker in a video taken of a scene of the assembly work and comparing it with the contents of a work procedure manual is known. I have. For example, there is a method in which a rectangle is set in a place where an assembling operation occurs in a video, and whether the assembling operation is performed is determined based on whether or not the rectangle is manipulated (see Patent Document 1).

特開2001−209694号公報JP 2001-209694 A

作業手順書には組立作業において行われる作業の順番が記載されていることもあり、作業者によって行われた組立作業の良否を判断するには、作業の順番を加味しなければならないときもある。そのような作業の順番を加味した組立作業の分析には、特許文献1のような、個別作業の発生の有無に注目しているだけでは実現できず、それらの発生の順序を分析する必要がある。そのような手法として、DPマッチングに代表されるような、シーケンスの並びのあいまいさを許容するシーケンスマッチングが知られている。しかし、高い精度が求められる部品の微調整作業等、熟練度に依らず個体ごとに大きく作業内容や作業時間がばらつくものがある。そのような作業が含まれるシーケンスに対してシーケンスマッチングを行うと、全体の照合精度が落ちる場合があった。   The order of work performed in the assembly work may be described in the work procedure manual, and it may be necessary to consider the order of work in order to judge the quality of the assembly work performed by the worker . The analysis of the assembly work taking the order of such work into consideration cannot be realized merely by paying attention to the presence or absence of the individual work as in Patent Document 1, and it is necessary to analyze the order of the occurrence. is there. As such a method, there is known a sequence matching represented by DP matching, which allows ambiguity in the arrangement of the sequence. However, there are some types of work such as fine adjustment of parts that require high accuracy, and the work content and work time vary greatly from one individual to another regardless of the skill level. When sequence matching is performed on a sequence including such an operation, the overall matching accuracy may be reduced.

本発明の画像処理装置は、作業を撮影した映像の注目領域の動作検知の結果に基づき検知ラベル列を生成する生成手段と、作業環境に関する情報に基づき前記検知ラベル列を複数の検知部分ラベル列に分割する分割手段と、前記複数の検知部分ラベル列それぞれについて参照ラベル列との照合方法を選択する選択手段と、前記選択手段により選択された照合方法で前記複数の検知部分ラベル列それぞれと前記参照ラベル列とを照合する照合手段と、を有する。   The image processing apparatus according to the present invention includes: a generation unit configured to generate a detection label sequence based on a result of motion detection of a region of interest of a video image of a work; and a plurality of detection partial label sequences based on work environment information. Dividing means, selecting means for selecting a matching method with a reference label string for each of the plurality of detected partial label strings, and each of the plurality of detected partial label strings with the matching method selected by the selecting means. Collating means for collating with the reference label sequence.

本発明によれば、作業が正しく行われたか否かを判断する照合精度を向上することができる。   ADVANTAGE OF THE INVENTION According to this invention, the collation precision which determines whether the operation | work was performed correctly can be improved.

作業評価制御装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of a work evaluation control device. 作業評価制御装置の機能構成の一例を示す図である。It is a figure showing an example of functional composition of a work evaluation control device. 組立作業の事例等を示す図である。It is a figure which shows the example of an assembly operation, etc. 作業手順書の一例を示す図である。It is a figure showing an example of a work procedure manual. テーブルの一例を示す図である。It is a figure showing an example of a table. 実施形態1の情報処理の一例を示すフローチャートである。4 is a flowchart illustrating an example of information processing according to the first embodiment. シーケンスマッチングの例を示す図である。FIG. 9 is a diagram illustrating an example of sequence matching. DPマッチングの適用の一例を示す図である。FIG. 9 is a diagram illustrating an example of application of DP matching. 実施形態2の情報処理の一例を示すフローチャートである。13 is a flowchart illustrating an example of information processing according to a second embodiment.

以下、本発明の実施形態について図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<実施形態1>
図1は、作業評価制御装置100のハードウェア構成の一例を示す図である。作業評価制御装置100は、画像処理装置の一例である。
制御部101は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等により構成され、情報処理のための演算や論理判断等を行う。制御部101は、システムバス106を介して、システムバス106に接続された各構成要素を制御する。
表示部102は、画像情報の表示を制御するコントローラ及び液晶パネル、又はプロジェクタ、又は警告等の出力装置を含む。
通信部104は、ネットワークコントローラ等であり、他の装置との接続を制御する外部通信手段である。より具体的には、通信部104は、LAN、3G、4G、Bluetooth(登録商標)、RFID(Radio Frequency Identification)等の通知方式で他の装置との接続を制御する。但し、通信部104は、同様の目的を達成できる他の通信方式を採用してもよい。作業評価制御装置100は、通信部104を介して、生産ライン及び人物(人物の行動を含む)を撮影する映像取得装置309より映像を受信する。
<First embodiment>
FIG. 1 is a diagram illustrating an example of a hardware configuration of the work evaluation control device 100. The work evaluation control device 100 is an example of an image processing device.
The control unit 101 is configured by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), and the like, and performs an arithmetic operation and a logical determination for information processing. The control unit 101 controls each component connected to the system bus 106 via the system bus 106.
The display unit 102 includes a controller that controls display of image information and a liquid crystal panel, or a projector, or an output device such as a warning.
The communication unit 104 is a network controller or the like, and is an external communication unit that controls connection with another device. More specifically, the communication unit 104 controls connection with other devices by a notification method such as LAN, 3G, 4G, Bluetooth (registered trademark), and RFID (Radio Frequency Identification). However, the communication unit 104 may employ another communication method that can achieve the same purpose. The work evaluation control device 100 receives, via the communication unit 104, a video from the video acquisition device 309 that captures a production line and a person (including a person's behavior).

計測部105は、GPS(Global Positioning System)センサ、ジャイロセンサ、人体モーションセンサ、電子コンパス等である。計測部105は、人物の位置、人物の姿勢(方角、各関節の回転・角度・角速度)、生産ラインの工具の稼働状況、騒音等を計測する。
RAM(Random Access Memory)107は、各構成要素からの各種データの一時記憶に用いられる。例えば、RAM107は、各種計測データ、又は画像データ等を一時的に記憶する。
外部記憶部108、フラッシュメモリ、HDD、又は光学ディスク等の物理媒体を用いて、本実施形態で実行されるプログラムの他、図4で述べる各種データ等、計測データ、画像データを記憶する。
上記の各構成要素からなる作業評価制御装置100は、映像記録部103から供給される各種映像、通信部104から供給されるネットワーク経由の各種入力、又は計測部105から入力される計測値に応じて作動する。即ち、映像記録部103、通信部104、計測部105何れかからの入力が供給されると、インタラプト信号が制御部101に送られる。そして、制御部101が、外部記憶部108に記憶された各種のプログラムを読み出し、プログラムに従って各種の制御を実行する。制御部101が、プログラムに基づき処理を実行することにより、後述する図2の作業評価制御装置100の機能構成、及び、後述する図6、図9のフローチャートの処理が実現される。
The measurement unit 105 is a GPS (Global Positioning System) sensor, a gyro sensor, a human body motion sensor, an electronic compass, or the like. The measurement unit 105 measures the position of the person, the posture of the person (direction, rotation / angle / angular velocity of each joint), the operation status of tools on the production line, noise, and the like.
A RAM (Random Access Memory) 107 is used for temporarily storing various data from each component. For example, the RAM 107 temporarily stores various measurement data, image data, and the like.
By using a physical medium such as an external storage unit 108, a flash memory, an HDD, or an optical disk, in addition to the program executed in the present embodiment, measurement data and image data such as various data described in FIG. 4 are stored.
The work evaluation control device 100 composed of the above-described components responds to various images supplied from the image recording unit 103, various inputs via the network supplied from the communication unit 104, or measurement values input from the measurement unit 105. Work. That is, when an input from any of the video recording unit 103, the communication unit 104, and the measurement unit 105 is supplied, an interrupt signal is sent to the control unit 101. Then, the control unit 101 reads out various programs stored in the external storage unit 108 and executes various controls according to the programs. The control unit 101 executes the processing based on the program, thereby realizing the functional configuration of the work evaluation control device 100 in FIG. 2 described later and the processing in the flowcharts in FIGS. 6 and 9 described later.

図2は、作業評価制御装置100の機能構成の一例を示す図である。
注目領域制御部201は、映像記録部103で得られた動画の各フレームから被写体の動きや有無変化等が発生しうる注目領域を座標群と対応するラベルとで管理する。物体検知部202は、実際に各注目領域内の動きや有無変化を検知する。検知ラベル列制御部203は、検知結果をラベル列として蓄積する処理を行う。
FIG. 2 is a diagram illustrating an example of a functional configuration of the work evaluation control device 100.
The attention area control unit 201 manages, from each frame of the moving image obtained by the video recording unit 103, an attention area where the movement of the subject, the presence / absence change, and the like may occur, using a coordinate group and a label corresponding to the attention area. The object detection unit 202 actually detects a movement or a presence / absence change in each attention area. The detection label sequence control unit 203 performs a process of storing the detection result as a label sequence.

まず、工場の組立作業の事例、作業評価制御装置100の目的、技術課題、解決方法を概説する。図3(A)は作業台301において作業者308が組立作業を行う作業場の様子を表している。作業台301はワークベンチ302、組立対象物303、シールケース304、ビスケース305、ゴミ箱306、ドライバ受け307、映像取得装置309からなる。この作業場においては、複写機の内部に組み込む現像器や定着器等の組立対象物をワークベンチに置き、組立対象物の組み立てを行うものである。作業者は組立作業手順書に従い組立作業を行う。したがって作業評価制御装置100の目的は、作業者が組立作業手順書に従って組立作業を行ったかどうかを判定することである。   First, an example of a factory assembling operation, the purpose, a technical problem, and a solution of the operation evaluation control device 100 will be outlined. FIG. 3A shows a workplace where a worker 308 performs an assembly work on a workbench 301. The workbench 301 includes a workbench 302, an object to be assembled 303, a seal case 304, a screw case 305, a trash can 306, a driver receiver 307, and an image acquisition device 309. In this work place, an assembly target such as a developing unit and a fixing unit to be incorporated in the copying machine is placed on a work bench to assemble the assembly target. An operator performs an assembly operation according to an assembly operation procedure manual. Therefore, the purpose of the work evaluation control device 100 is to determine whether the worker has performed the assembly work according to the assembly work procedure manual.

図3(B)に示したのは、実際に作業台301を対象に作業検知を行う際の全体の構成要素を表している。本実施形態の例においては、作業評価制御装置100は、映像取得装置309から得られる映像取得結果の各フレームにおいて作業と関連する動作が生じうる場所に事前に注目領域を1つ以上設定する。例えば、シールを貼る場合には組立対象物303とシールケース304とに、ドライバを用いる場合にはビスケース305と組立対象物303とに、ゴミ箱にものを捨てる場合にはゴミ箱306に、動きの発生が期待できる。作業評価制御装置100は、このような場所に注目領域を付与する。この注目領域は任意矩形範囲で指定するものとし、作業評価制御装置100は、それぞれに番号等、相互に区別可能なラベルを割り当てる。後述する一連の認識処理において、作業評価制御装置100は、注目領域における手先の通過検知や物体有無検知を行う。以降の説明では、組立に必要な動き1つ1つを「動作」と呼ぶこととし、各「作業」は複数の「動作」から構成されることとする。図3(B)において点線の矩形が注目領域である。また、下線付き数字は注目領域の番号である。
図3(C)に示したのはワークベンチ302において作成する組立対象物303の具体例である。薄いシート状の物体が通過することを想定した製品の例である。本体310に金具311がビス312で打ち付けられている。隙間遊び測定具313はシートの隙間が妥当であるかを確認するためのものである。
FIG. 3B illustrates the entire components when actually performing work detection on the workbench 301. In the example of the present embodiment, the work evaluation control device 100 sets one or more regions of interest in advance at places where operations related to work may occur in each frame of the video acquisition result obtained from the video acquisition device 309. For example, when a seal is attached, the object to be assembled 303 and the seal case 304 are used. When a screwdriver is used, the screw case 305 and the object to be assembled 303 are used. Can be expected. The work evaluation control device 100 gives an attention area to such a place. This attention area is specified by an arbitrary rectangular range, and the work evaluation control device 100 assigns a mutually distinguishable label such as a number to each. In a series of recognition processes described later, the work evaluation control device 100 performs detection of passage of a hand and detection of the presence or absence of an object in the attention area. In the following description, each movement required for assembly is referred to as an “operation”, and each “work” is composed of a plurality of “operations”. In FIG. 3B, a dotted rectangle is a region of interest. The underlined number is the number of the attention area.
FIG. 3C shows a specific example of the assembly object 303 created in the workbench 302. It is an example of a product assuming that a thin sheet-shaped object passes. A metal fitting 311 is attached to the main body 310 with a screw 312. The clearance play measuring device 313 is for confirming whether the clearance between the sheets is appropriate.

図4(A)(B)は作業手順書の例である。作業手順書には作業手順の詳細な説明文が記載されている。本実施形態の例における組立作業は主に、金具の取り付け(作業1)、ビス締め(作業2)、金具位置の微調整(作業3)、シール貼り付け(作業4)等である。
作業1:金具の取り付け(金具311)
動作1:金具311を本体310に装着
作業2:ビス締め(ビス312)
動作1:ドライバ取得、動作2:ビス取得、動作3:ビス締め、動作4:ドライバ戻し
作業3:金具位置の微調整(金具311)
動作1:隙間遊び測定具313で隙間測定、金具311を微調整
作業4:シール貼付
動作1:シール取得、動作2:シール右端貼付、動作3:シール左端貼付、動作4:シール裏紙破棄
(作業5以降は省略)
更に、各作業の具体的な組立作業について説明すると、作業2については、右手でドライバを取り左手でビス箱からビスを取り、組立対象物中央の黒丸のビス穴にビスを締めて、ドライバを戻すという流れである。作業3については隙間遊び測定具313を用いて遊びを確認し、適宜、ビス312を緩めたうえで金具311の位置を調整した後、ビス312を締めなおすものである。作業4については、シールを取り、組立対象物の左半分に貼り付け、ゴミ箱に裏紙を捨てるという流れである。これらは、作業手順書に記載があり、作業者はこの順番で組立作業を進めなければならない。
4A and 4B are examples of a work procedure manual. The work procedure manual contains a detailed explanation of the work procedure. The assembling work in the example of the present embodiment mainly includes fitting of a metal fitting (work 1), screw tightening (work 2), fine adjustment of metal fitting position (work 3), sticking of a seal (work 4), and the like.
Work 1: Mounting of metal fittings (metal fitting 311)
Operation 1: Mounting the metal fitting 311 on the main body 310 Work 2: Screw fastening (screw 312)
Operation 1: driver acquisition, operation 2: screw acquisition, operation 3: screw tightening, operation 4: driver return work 3: fine adjustment of metal fitting position (metal fitting 311)
Operation 1: Gap measurement with the clearance play measuring device 313, fine adjustment of the metal fitting 311 Work: sticker operation 1: Seal acquisition, operation 2: sticker right end sticker, operation 3: sticker left end sticker, operation 4: discard seal backing paper ( (Omitted after work 5)
Further, a specific assembling work of each work will be described. In the work 2, a driver is taken with a right hand, a screw is taken out of a screw box with a left hand, and a screw is screwed into a screw hole of a black circle at the center of an object to be assembled. It is the flow of returning. In operation 3, the play is confirmed using the clearance play measuring tool 313, the screw 312 is appropriately loosened, the position of the metal fitting 311 is adjusted, and then the screw 312 is tightened again. In the operation 4, a seal is taken, the sticker is attached to the left half of the object to be assembled, and the back paper is discarded in a trash can. These are described in the work procedure manual, and the worker must proceed with the assembly work in this order.

図5の領域定義テーブル501は図3(B)に示した注目領域の定義を保存する。また、検知ラベル列格納テーブル502は本実施形態の装置によって認識される作業の履歴を注目領域と紐づけて保存する。図5に示されるテーブルは、外部記憶部108に記憶される。   The region definition table 501 in FIG. 5 stores the definition of the region of interest shown in FIG. The detection label string storage table 502 stores the history of the work recognized by the apparatus of the present embodiment in association with the attention area. The table illustrated in FIG. 5 is stored in the external storage unit 108.

図6は、実施形態1の作業評価制御装置100の情報処理の一例を示すフローチャートである。フローチャートの全体は映像取得装置309で取得されるフレーム毎にループする構造となっている。作業評価制御装置100は、撮影された映像の各フレームにおいて上述の注目領域内の映像の変化を検知し、上述の組立作業の流れと注目領域の変化との間に想定通りの対応があれば組立作業が正しく実施されたと判断する。組立作業の最初から最後までにおいて検知したラベルを蓄積したものを検知ラベル列という。作業手順書で記載されている動作の順序に基づき、ラベルを並べた列を参照ラベル列という。作業評価制御装置100は、検知ラベル列が参照ラベル列と比較して妥当な並びになっているかを検証する。作業評価制御装置100は、妥当な並びであれば組立作業は正しく実施されたと判断し、そうでなければ組立作業は失敗と判断する。
映像取得装置309によって組立作業を撮影する。映像取得装置309は、作業場の上部等に設置したカメラから撮影する。S601において、制御部101は、映像取得装置309より映像フレームを受信する。
S602において、制御部101は、映像フレーム内の注目領域群の画像を取得する。続いて、ここで取得した注目領域毎にS603からS606までループ実行する。
FIG. 6 is a flowchart illustrating an example of information processing of the work evaluation control device 100 according to the first embodiment. The entire flow chart has a structure in which a loop is performed for each frame acquired by the video acquisition device 309. The work evaluation control device 100 detects a change in the image in the above-described region of interest in each frame of the captured image, and if there is an expected correspondence between the flow of the assembling work and the change in the region of interest, Judge that the assembly work was performed correctly. What accumulates the labels detected from the beginning to the end of the assembling work is called a detection label sequence. A column in which labels are arranged based on the order of operations described in the work procedure manual is called a reference label column. The work evaluation control device 100 verifies whether the detected label sequence is more appropriate than the reference label sequence. The work evaluation control device 100 determines that the assembling work has been correctly performed if the arrangement is appropriate, and otherwise determines that the assembling work has failed.
The assembly operation is photographed by the video acquisition device 309. The image acquisition device 309 captures an image from a camera installed at an upper part of a work place or the like. In step S601, the control unit 101 receives a video frame from the video acquisition device 309.
In step S602, the control unit 101 obtains an image of a region of interest in a video frame. Subsequently, a loop is executed from S603 to S606 for each attention area acquired here.

S603において、制御部101は、注目領域内の動作検知を行う。動作検知は画像輝度のフレーム間差分、SIFT等の特徴量のフレーム間差分、基準輝度値との比較、カメラ画角内物体の通過、物体形状の変化等を用いて行う。
S604において、制御部101は、動作検知の有無を判定する。制御部101は、動作検知があった場合にはS605に、なかった場合にはS606に推移する。
S605において、制御部101は、検知ラベル列に検知結果を反映する。より具体的には、制御部101は、検知された注目領域に振られたラベルを検知ラベルとして扱い、それを発生時刻等と紐づけて時系列的に生成・蓄積する。図7(A)(B)に示したのは実際に検知された検知ラベル列の例である。作業者はビス締め作業において、本体310に金具311をビス312で打ち付ける。続けてシートの隙間が妥当であるかを確認するために、隙間遊び測定具313を用いて隙間を測定する。このとき、隙間が基準通りにできていない場合はビス312を緩めたり金具を押し付けたりする等して隙間を微調整する。この微調整作業は生産する個体ごとに不規則に発生するため、図7(A)(B)に示した例にあるように、他の作業に比べてラベル列の長さ、ラベルの先頭と末尾との発生時刻差、含まれるラベルの種類がばらつく傾向にある。このような状況においては、制御部101は、参照ラベル列と検知ラベル列との照合精度が落ちてしまうため、注目領域間の物体有無変化の対応等から作業の切り替わりと相関のある作業環境変化を抽出し、照合方法を適応的に変更することが有効である。一種類による照合方法で全体を検知する場合には、微調整作業によるラベル長・ラベル種類数の不規則性が他の作業のラベルに対する望ましい紐づけを妨げるためである。
そこでS606において、制御部101は、作業環境変化を効率的に取得するために、各注目領域内の物体有無状態を更新する。有無判定対象となるのは、作業者の手、作業者の腕、作業に用いる部品、作業に用いる備品等である。
S607において、制御部101は、検知ラベル列分割を行い、検知ラベル列を1つ以上の検知部分ラベル列に分割する。その上で、制御部101は、部分検知ラベル列毎にS608〜S609をループ実行する。
In step S603, the control unit 101 detects a motion in the attention area. The motion detection is performed using an inter-frame difference in image luminance, an inter-frame difference in a feature amount such as SIFT, a comparison with a reference luminance value, the passage of an object within a camera view angle, a change in object shape, and the like.
In step S604, the control unit 101 determines whether motion detection has been performed. The control unit 101 shifts to S605 if a motion is detected, and shifts to S606 if no motion is detected.
In step S605, the control unit 101 reflects the detection result on the detection label sequence. More specifically, the control unit 101 treats the label assigned to the detected area of interest as a detection label, and generates and accumulates the label in chronological order in association with the occurrence time. FIGS. 7A and 7B show an example of a detection label string actually detected. The operator strikes the metal fitting 311 on the main body 310 with the screw 312 in the screw fastening operation. Subsequently, the gap is measured using the gap play measuring device 313 in order to check whether the gap between the sheets is appropriate. At this time, if the gap is not formed according to the standard, the gap is finely adjusted by loosening the screw 312 or pressing a metal fitting. Since this fine adjustment work occurs irregularly for each individual to be produced, as shown in the example shown in FIGS. 7A and 7B, the length of the label row, the head of the label, The occurrence time difference from the end and the type of label included tend to vary. In such a situation, the control unit 101 determines that the collation accuracy between the reference label string and the detection label string is reduced. And it is effective to adaptively change the matching method. This is because, in the case where the whole is detected by the collation method using one type, irregularities in the label length and the number of label types due to the fine adjustment work hinder the desirable association with the labels of other works.
Therefore, in step S606, the control unit 101 updates the object presence / absence state in each attention area in order to efficiently acquire a change in the work environment. The presence / absence determination target includes a worker's hand, a worker's arm, parts used for the work, equipment used for the work, and the like.
In step S607, the control unit 101 divides the detection label string and divides the detection label string into one or more detection partial label strings. Then, the control unit 101 loops S608 to S609 for each partial detection label string.

S608において、制御部101は、事前に決めておいた条件に基づいて部分シーケンス照合手段の選択を行う。
ここで、部分シーケンス照合手段の詳細について述べる。本実施形態の例では基本的にシーケンスマッチングを用いる。シーケンスマッチングとは、2つの時系列データが正確に一致していなくても、時系列データを構成するラベルの発生順序の概略が似ていれば2つの時系列データは同一であるとみなす、あいまいさを許容するマッチング手法のことである。シーケンスマッチングを導入する理由は、動作から次の動作に移る間等、動作以外にも手が注目領域に入ることがあり、正しく組立作業を行っていても検知ラベル列と参照ラベル列とが正確に一致することはないからである。本実施形態においては、DPマッチングと呼ばれるシーケンスマッチングを使うものとする。DPマッチングは、2つの時系列データ(参照、観測)の類似度を測定する手法であり、照合のコストが最も小さくなるように参照時系列データのラベルに、観測時系列データのラベルを紐付けていく。その過程でDPマッチングはノイズの影響を最小限にする処理をするため、シーケンスマッチングとして用いることができる。より具体的な事例を交えた照合方法は図8(A)に記している。参照時系列データとして1、2、3、4、観測時系列データとして1、2、4、3、4を用いる。観測時系列データにおける2つの4のうち最初の4はノイズである。図8(A)において、左下から右上に向かってラベルの紐付けを行うものとして、各セルには左下から、該当のセルを共有する参照、観測の各時系列のラベルを紐付けるまでの最低コストを記す。また、各セルの最低コストの算出には、最低コストを算出済みの下、左下、左の3つのセルから算出し、これを繰り返すという簡易な演算で左下から右上までを紐付けていく上での最低コストを導出する。また、3つのセルのうち、いずれのセルを採用したかを記録しておくので、最終的な右上の最低コストの導出では、どのような経路を通ったかを導くことはできる。詳細な計算は省略するが、図8(A)のDPマッチングをした結果は図8(B)となり、濃いセルをたどる経路が最低コストを実現した経路となる。紐付けの結果を具体的に示した図は図8(C)となり、ノイズの"4"は参照時系列データの"4"ではなく、"2"に付随したノイズとして紐付けられている。
In step S608, the control unit 101 selects a partial sequence matching unit based on a condition determined in advance.
Here, the details of the partial sequence matching means will be described. In the example of this embodiment, sequence matching is basically used. Sequence matching means that even if two time-series data do not exactly match, two time-series data are regarded as the same if the generation order of labels constituting the time-series data is similar, which is ambiguous. Is a matching method that allows for The reason for introducing sequence matching is that the hand may enter the attention area in addition to the operation, such as during the transition from one operation to the next operation, so that even if the assembly work is performed correctly, the detection label string and the reference label string are accurate Because it does not match. In the present embodiment, sequence matching called DP matching is used. DP matching is a method of measuring the similarity between two time-series data (reference and observation), and links the label of the observation time-series data to the label of the reference time-series data so as to minimize the cost of matching. To go. In the process, DP matching can be used as sequence matching because it performs processing to minimize the influence of noise. FIG. 8A shows a collation method using more specific cases. 1, 2, 3, 4 are used as reference time series data, and 1, 2, 4, 3, 4 are used as observation time series data. The first four of the two fours in the observation time series data are noise. In FIG. 8 (A), assuming that labels are linked from the lower left to the upper right, each cell has a minimum value from the lower left until the label of each time series of reference and observation is shared from the lower left. Write down the cost. In calculating the lowest cost of each cell, the lowest cost is calculated from the three cells, that is, the lower left, the lower left, and the left, and the lower left to the upper right are linked by a simple operation of repeating this. Derive the lowest cost of In addition, since which cell of the three cells is adopted is recorded, in the final derivation of the lowest cost on the upper right, it is possible to derive what route has been taken. Although the detailed calculation is omitted, the result of the DP matching shown in FIG. 8A is as shown in FIG. 8B, and the path following the dark cell is the path that realizes the lowest cost. FIG. 8C specifically shows a result of the linking, in which the noise “4” is linked not as “4” of the reference time-series data but as noise accompanying “2”.

一方で、遊び調整作業のような個体ごとにばらつきが大きい作業では、図7(C)のような参照ラベル列の固定を前提としたDPマッチングでは作業照合精度が低くなる課題がある。そこで本実施形態では、作業の種類が変わっても検知精度を維持するため、制御部101は、S603、S606で収集した各注目領域の動作検知及び物体有無状態を用いて検知方法を適応的に選択する。図7(D)に示したのはその具体例である。図7(C)との違いは、制御部101が、微調整作業においてラベル種類数とそれらの時間占有率とを測定するように変更している点である。更に、図7(E)に示したように、制御部101は、その切り替えのトリガとしては使用道具である隙間遊び測定具313等、特定物体の所定の置場の注目領域(ID=7)を用いて、その中の隙間遊び測定具313の有無を検知する。特定物体の有無は仕掛中の作業と関連する作業環境変化として用いることができる。したがって、制御部101は、この情報を基にラベル列を部分シーケンスに分割し、部分シーケンスごとにDPマッチングに限らない部分シーケンス照合手段を選択する。より具体的には、制御部101は、作業対象の特性に合わせて検知方法を切り替える(図7(F))。例えば、制御部101は、本実施形態で述べる例以外にも、押さえつける作業が中心の作業に対しては所要時間を、塗装作業等においては注目領域内の平均輝度値を、割り込み作業であることが自明である場合には照合対象外にする等、適宜適切なものを選択することができる。こうすることで、作業順よりも作業内容の内訳が重要な微調整作業に冗長な照合が可能となる。その上、シール貼り付け作業の後に再度微調整作業を行う等、作業順が前後する場合においても冗長な作業照合を行うことができる。ここで、制御部101は、特定物体の有無に限らず、特定物体の位置、又は特定物体の向き、測定特定物体の種類に基づき、検知ラベル列を複数の検知部分ラベル列に分割するようにしてもよい。DPマッチング以外のマッチング方法(部分シーケンス照合手段)としては、分割時間の長さ、検知ラベル列の長さ、検知ラベル列の種類の数、各ラベルの占める割合、映像の平均輝度等に基づくマッチング方法がある。
S609において、制御部101は、選択した部分シーケンス照合手段を用いて部分シーケンスの照合を行う。
On the other hand, in an operation such as a play adjustment operation in which there is a large variation between individuals, there is a problem that the operation matching accuracy is reduced in DP matching assuming that the reference label string is fixed as shown in FIG. Therefore, in the present embodiment, in order to maintain the detection accuracy even when the type of work changes, the control unit 101 adaptively changes the detection method using the motion detection and the object presence / absence state of each attention area collected in S603 and S606. select. FIG. 7D shows a specific example. The difference from FIG. 7C is that the control unit 101 is modified to measure the number of label types and their time occupancy in the fine adjustment work. Further, as shown in FIG. 7 (E), the control unit 101 uses, as a trigger for the switching, the attention area (ID = 7) of the predetermined place of the specific object such as the gap play measuring tool 313 which is a tool used. The presence / absence of the gap play measuring instrument 313 is detected. The presence or absence of the specific object can be used as a change in the work environment related to the work in progress. Therefore, the control unit 101 divides the label sequence into partial sequences based on this information, and selects a partial sequence matching unit that is not limited to DP matching for each partial sequence. More specifically, the control unit 101 switches the detection method according to the characteristics of the work target (FIG. 7F). For example, in addition to the example described in the present embodiment, the control unit 101 may determine that the time required for the work mainly pressing down, the average luminance value in the attention area for the painting work, etc. Is obvious, an appropriate one can be selected, such as excluding it from the collation target. By doing so, it is possible to perform redundant matching for fine adjustment work in which the breakdown of the work content is more important than the work order. In addition, redundant work collation can be performed even when the work order is changed, such as performing fine adjustment work again after the sticking of the seal. Here, the control unit 101 divides the detection label string into a plurality of detection partial label strings based on the position of the specific object, the direction of the specific object, and the type of the measured specific object, not only the presence or absence of the specific object. You may. As a matching method (partial sequence matching means) other than DP matching, matching based on the length of the division time, the length of the detection label string, the number of types of the detection label string, the ratio of each label, the average luminance of the video, and the like. There is a way.
In step S609, the control unit 101 performs collation of the partial sequences using the selected partial sequence collation unit.

S610において、制御部101は、各部分シーケンス照合結果を統合し、作業手順書全体で作業が正しく行われたか否かを判定する。制御部101は、各部分シーケンスについてあえて複数の検知方法を選択して並走させたうえで、それらの結果を統合するようにしてもよい。例えば、制御部101は、統合方法としては作業漏れの有無検知ならば複数手法の結果の多数決で行う。こうすることで、データ収集が十分でない状況下等、1つ1つの手法による検知の結果が不安定になる場合においても、冗長な検知を実現できる。
S611において、制御部101は、検知結果を出力する。
なお、本実施形態の例に挙げたS608の部分シーケンス照合手段の選択の条件は、実施前に事前決定する方法のほか、作業履歴を蓄積していく過程で、監督者がフィードバックをかけていく等して動的に決定してもよい。こうすることで、どのシーケンス照合手段が妥当であるか前例が少なく判断が難しい場合にも適用可能になる。またS607の検知ラベル列分割処理の分割基準は1つの注目領域の有無に限らない。例えば、複数の注目領域における有無の組み合わせを用いることによって、より複雑かつ冗長な分割条件となることを期待できる。
In step S610, the control unit 101 integrates the partial sequence collation results and determines whether the work has been correctly performed in the entire work procedure manual. The control unit 101 may intentionally select a plurality of detection methods for each partial sequence and run them in parallel, and then integrate the results. For example, the control unit 101 performs a majority decision on the results of a plurality of methods when detecting the presence or absence of a work omission as an integration method. This makes it possible to realize redundant detection even when the result of detection by each method becomes unstable, such as in a situation where data collection is not sufficient.
In S611, the control unit 101 outputs a detection result.
In addition, the conditions for selecting the partial sequence matching unit in S608 described in the example of the present embodiment are determined in advance before the implementation, and the supervisor gives feedback in the process of accumulating the work history. For example, it may be determined dynamically. By doing so, it is possible to apply even when it is difficult to determine which sequence matching means is appropriate and there are few precedents. The division criterion of the detection label string division processing in S607 is not limited to the presence or absence of one attention area. For example, by using a combination of presence or absence in a plurality of regions of interest, more complex and redundant division conditions can be expected.

以上、本実施形態における例においては、作業を構成する動作に関連する作業環境変化を基に検知ラベル列を複数の検知部分ラベル列に分割したうえで、それぞれ検知手法を変更する。こうすることで、作業内容や作業時間がばらつく作業の影響が作業分析対象全体に及ぶことを防ぐ効果があり、その結果として、作業が正しく行われたか否かを判断する照合精度が向上し、組立作業の監督者は的確に組立作業のやり直し等の指示を出せるようになる。   As described above, in the example of the present embodiment, the detection method is changed after dividing the detection label sequence into a plurality of detection partial label sequences based on the change in the work environment related to the operation configuring the work. This has the effect of preventing the effects of work in which the work content and work time vary from affecting the entire work analysis target, and as a result, the collation accuracy for judging whether or not the work has been correctly performed is improved, The supervisor of the assembling work will be able to give instructions such as re-assembly work accurately.

<実施形態2>
次に、実施形態2として、作業中のライン内に配置されたセンサ等から読み出す装置稼働音等の音声取得結果や振動状態計測結果、稼働状態変化計測結果を用いる例について述べる。この例によれば、より多様な作業照合を可能にする。
本実施形態は実施形態1と同様の構成を持つ。図9は、実施形態2の作業評価制御装置100の情報処理の一例を示すフローチャートである。本実施形態では照合精度を更に高めるためにS907〜S908の処理を検知ラベル列分割処理の前に追加している。この検知ラベル列分割処理の詳細と、その追加によって生じる後段の処理の差分について以下に述べる。
<Embodiment 2>
Next, as a second embodiment, an example will be described in which a sound acquisition result such as a device operation sound read from a sensor or the like arranged in a line in operation, a vibration state measurement result, and an operation state change measurement result are used. According to this example, more various work collations can be performed.
This embodiment has the same configuration as the first embodiment. FIG. 9 is a flowchart illustrating an example of information processing of the work evaluation control device 100 according to the second embodiment. In the present embodiment, in order to further increase the matching accuracy, the processing of S907 to S908 is added before the detection label string division processing. The details of the detection label string dividing process and the difference between the subsequent processes caused by the addition will be described below.

S907において、制御部101は、ライン内に配置されたセンサ等から稼働装置の稼働音等の音声信号、振動の状態、稼働状態を収集する。より具体的には、センサは、映像取得装置309に付帯のマイク、ドリルの電源ON/OFFセンサ、掃除機の電源ON/OFFセンサ、作業台301付帯の振動センサ等である。これは、生産作業では大きな稼働音や振動を発する道具を用いる場合があることから、各種センサの情報を基に効率的に照合手段の切り替えを行うことを期待している。
S908において、制御部101は、収集したセンサ測定値の解析を行う。音声から騒音量、特定の周波数の強さを特徴量として抽出し、基準値判定(出力50%等)することで、ドリルや掃除機の稼働状態(ON/OFF等)を細かく取得することができる。また、制御部101は、作業者の会話内容を音声認識することで、発話時の作業内容を推定することができる。
In step S907, the control unit 101 collects an audio signal such as an operation sound of the operation device, a vibration state, and an operation state from sensors and the like arranged in the line. More specifically, the sensors include a microphone attached to the image acquisition device 309, a power ON / OFF sensor for a drill, a power ON / OFF sensor for a vacuum cleaner, a vibration sensor attached to the worktable 301, and the like. This is because in production work, tools that emit loud operating sounds or vibrations may be used, and therefore, it is expected that the collation means can be efficiently switched based on information from various sensors.
In step S908, the control unit 101 analyzes the collected sensor measurement values. By extracting the amount of noise and the intensity of a specific frequency from the voice as a feature value and determining the reference value (output 50%, etc.), the operating state (ON / OFF, etc.) of the drill or the vacuum cleaner can be obtained finely. it can. In addition, the control unit 101 can estimate the work content at the time of utterance by voice-recognizing the content of the conversation of the worker.

S910において、制御部101は、これらの情報を基に部分シーケンス照合手段を選択する。例えば、作業7、ビス部ホコリ吸い取り作業の例について述べる。これは、ビスを金具311の装着時や微調整時に繰り返し着脱を繰り返す際に発生する微細なホコリを、不良品発生防止のために吸い取る作業である。注目領域のみによる検知では、掃除機の先端が付近を通過したことは追尾できるが、実際に吸い取っているかどうかまでは判断が難しい。かつ、この作業は微調整作業と同様に吸い出しタイミングや回数が不規則に発生する。そこで、制御部101は、掃除機の電源ON/OFFセンサの動き、又はマイクから録音した掃除機の稼働音の検出有無によって照合方法を切り替える。より具体的には、制御部101は、吸い出しを行う間に対応する検知ラベル列を吸い出し作業と推定したうえで、ラベル種類数とそれらの時間占有率とを測定する照合方法をとるように変更する。こうすることで、注目領域のみの動作検知では妥当性判断が難しく、かつ、個体ごとにばらつきがある作業を精度よく検知することができる。なお、微調整作業とホコリ吸い取り作業とに強い関連がある場合のように、事前に特定作業との関連が明らかである場合には、制御部101は、それぞれの作業で検知したラベル種類数と時間占有率との一致度によって作業の妥当性を判断してもよい。こうすることで、微調整作業が多いにもかかわらず、ホコリ吸い取り作業が少ない個体が作られた場合等、品質リスクが高いと考えられる作業を効率的に抽出することができる。本実施形態のDPマッチング以外のマッチング方法(部分シーケンス照合手段)としては、音声の信号量、特定周波数の有無等に基づくマッチング方法がある。   In step S910, the control unit 101 selects a partial sequence matching unit based on the information. For example, a description will be given of an example of a work 7, a screw part dust removing work. This is an operation for sucking out fine dust generated when the screw is repeatedly attached and detached when the metal fitting 311 is mounted or finely adjusted, in order to prevent defective products from occurring. With detection using only the attention area, it is possible to track that the tip of the vacuum cleaner has passed nearby, but it is difficult to determine whether or not the cleaner is actually sucking. In addition, as in the fine adjustment operation, the extraction timing and the number of times are irregularly generated. Therefore, the control unit 101 switches the collation method according to the movement of the power ON / OFF sensor of the vacuum cleaner or the presence or absence of the detection of the operating sound of the vacuum cleaner recorded from the microphone. More specifically, the control unit 101 estimates that the corresponding detection label string is to be extracted during the extraction, and then changes to a collation method of measuring the number of label types and their time occupancy. I do. By doing so, it is difficult to determine the validity by detecting the motion of only the attention area, and it is possible to accurately detect the work in which there is a variation for each individual. Note that if the relationship between the specific adjustment work and the specific work is clear in advance, such as when there is a strong association between the fine adjustment work and the dust removal work, the control unit 101 determines the number of label types detected in each work. The validity of the work may be determined based on the degree of coincidence with the time occupancy. By doing so, it is possible to efficiently extract an operation that is considered to have a high quality risk, such as when an individual is created that performs a small amount of dust removal operation despite a large number of fine adjustment operations. As a matching method (partial sequence matching means) other than the DP matching of the present embodiment, there is a matching method based on the signal amount of voice, the presence or absence of a specific frequency, and the like.

以上、ライン内に配置されたセンサ等から読み出す音声信号、振動値を用いることによって、より多様な作業照合を可能にする例について述べた。これにより、注目領域のみの動作検知では妥当性判断が難しく、かつ、個体ごとにばらつきがある作業を精度よく検知する効果が得られる。   In the foregoing, an example has been described in which more various work collations can be performed by using a voice signal and a vibration value read from a sensor or the like arranged in a line. As a result, it is difficult to determine the validity by detecting the motion of only the attention area, and the effect of accurately detecting the work that varies from one individual to another can be obtained.

(変形例)
実施形態1及び実施形態2ではそれぞれ作業台をベースに行うセル生産作業の例を示したが、これらのユースケースに限定されることはない。映像をベースに動作履歴を追尾可能なユースケースであれば広く適用可能である。例えば、物流倉庫における梱包・包装作業等にも適用できる。この場合、制御部101は、ガムテープ等の残量によって個体ごとにばらつく作業を他の作業と別途切り出してシーケンス照合することによって、作業全体の照合精度を高めることができる。
また、実施形態2では作業中のライン内に配置されたセンサ等から得られた結果を基に検知ラベル列の分割を行う例を示したが、これだけではなく、制御部101は、得られた値を基にラベル列を生成することでもよい。こうすることで、映像のみに頼るラベル列よりも精度の高いラベル列を得られる。例えば、制御部101は、手の先がある注目領域を通過する場合に、掃除機の稼働状態がONであるかOFFであるかを別ラベルとして扱う。
また、上述した実施形態ではシーケンスマッチングの手法としてはDPマッチングを用いた手法及びラベル種類数と時間占有率との一致度を開示しているが、これらに限られることはない。例えば、オートマトンやHMM等のモデルを用いた手法を用いる場合にも有効である。モデルの事前設計や適用方法はDPマッチングとまったく同様に行うことができる。これらのモデルは、手元の移動が一連の作業で八の字を描くこと等が事前に分かっている場合等、ラベル列の推移が特徴的である場合等に有効である。
(Modification)
In the first and second embodiments, examples of the cell production operation performed based on the work table are shown, but the present invention is not limited to these use cases. The present invention is widely applicable to use cases in which the operation history can be tracked based on video. For example, the present invention can be applied to packing and packing work in a distribution warehouse. In this case, the control unit 101 can increase the matching accuracy of the entire work by separately cutting out the work that varies for each individual depending on the remaining amount of the gum tape or the like from the other work and performing the sequence matching.
Further, in the second embodiment, an example is shown in which the detection label sequence is divided based on the results obtained from the sensors and the like arranged in the line in operation, but the control unit 101 is not limited to this. A label sequence may be generated based on the values. This makes it possible to obtain a label sequence with higher accuracy than a label sequence relying only on video. For example, when the tip of the hand passes through a certain area of interest, the control unit 101 treats whether the operation state of the vacuum cleaner is ON or OFF as another label.
In the above-described embodiment, a method using DP matching and a degree of coincidence between the number of label types and the time occupancy are disclosed as a method of sequence matching, but the present invention is not limited thereto. For example, it is also effective when a method using a model such as an automaton or an HMM is used. The pre-design and application of the model can be performed in exactly the same way as in DP matching. These models are effective, for example, when it is known in advance that the movement of the hand draws a figure of eight in a series of operations, or when the transition of the label sequence is characteristic.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium. The present invention can also be realized by processing in which one or more processors in a computer of the system or the apparatus read and execute a program. Further, it can be realized by a circuit (for example, an ASIC) that realizes one or more functions.

以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
例えば、作業評価制御装置100のハードウェア構成として制御部101、RAM107、外部記憶部108等は1つである必要はない。複数の制御部がプログラムに基づき、複数のRAM、外部記憶部等に記憶されたデータ等を用いながら処理を実行するようにしてもよい。
As described above, an example of the embodiment of the present invention has been described in detail, but the present invention is not limited to the specific embodiment.
For example, the hardware configuration of the work evaluation control device 100 does not need to include the control unit 101, the RAM 107, the external storage unit 108, and the like. A plurality of control units may execute processing based on a program while using data stored in a plurality of RAMs, an external storage unit, and the like.

以上、上述した各実施形態によれば、作業を構成する動作に関連する作業環境変化を基に検知ラベル列を複数の検知部分ラベル列に分割したうえで、それぞれ検知手法を変更することで、例外性や時間ばらつきのある作業の影響が分析対象全体に及ぶことを防ぐ。この結果として、作業が正しく行われたか否かを判断する照合精度が向上し、組立作業の監督者は的確に組立作業のやり直し等の指示を出せるようになる。   As described above, according to each of the above-described embodiments, the detection label sequence is divided into a plurality of detection partial label sequences based on a change in the work environment related to the operation configuring the work, and then the detection method is changed. Prevent the effects of work with exceptions and time variations from affecting the entire analysis target. As a result, the collation accuracy for judging whether or not the work has been correctly performed is improved, and the supervisor of the assembling work can accurately give an instruction to start the assembling work again.

100 作業評価制御装置
101 制御部
100 work evaluation control device 101 control unit

Claims (13)

作業を撮影した映像の注目領域の動作検知の結果に基づき検知ラベル列を生成する生成手段と、
作業環境に関する情報に基づき前記検知ラベル列を複数の検知部分ラベル列に分割する分割手段と、
前記複数の検知部分ラベル列それぞれについて参照ラベル列との照合方法を選択する選択手段と、
前記選択手段により選択された照合方法で前記複数の検知部分ラベル列それぞれと前記参照ラベル列とを照合する照合手段と、
を有する画像処理装置。
Generating means for generating a detection label sequence based on a result of the motion detection of the attention area of the video of the work,
Division means for dividing the detection label string into a plurality of detection partial label strings based on information on a work environment,
Selection means for selecting a matching method with a reference label string for each of the plurality of detection partial label strings,
Collating means for collating each of the plurality of detected partial label strings with the reference label string by a collation method selected by the selecting means,
An image processing apparatus having:
前記照合手段による照合の結果を出力する出力手段を更に有する請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an output unit that outputs a result of the comparison by the comparison unit. 前記分割手段は、前記作業環境に関する情報として前記注目領域における特定物体の有無に基づき前記検知ラベル列を前記複数の検知部分ラベル列に分割する請求項1又は2記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the division unit divides the detection label string into the plurality of detection partial label strings based on the presence or absence of a specific object in the attention area as information on the work environment. 前記分割手段は、前記作業環境に関する情報として前記注目領域における特定物体の位置に基づき前記検知ラベル列を前記複数の検知部分ラベル列に分割する請求項1又は2記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the division unit divides the detection label string into the plurality of detection partial label strings based on a position of a specific object in the attention area as information on the work environment. 前記分割手段は、前記作業環境に関する情報として前記注目領域における特定物体の向きに基づき前記検知ラベル列を前記複数の検知部分ラベル列に分割する請求項1又は2記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the division unit divides the detection label sequence into the plurality of detection partial label sequences based on a direction of a specific object in the attention area as information on the work environment. 前記分割手段は、前記作業環境に関する情報として前記注目領域における作業者の使用道具の種類に基づき前記検知ラベル列を前記複数の検知部分ラベル列に分割する請求項1又は2記載の画像処理装置。   3. The image processing apparatus according to claim 1, wherein the division unit divides the detection label sequence into the plurality of detection partial label sequences based on a type of a tool used by an operator in the attention area as information on the work environment. 4. 前記分割手段は、前記作業環境に関する情報として作業中の音声に含まれる騒音量に基づき前記検知ラベル列を前記複数の検知部分ラベル列に分割する請求項1又は2記載の画像処理装置。   3. The image processing apparatus according to claim 1, wherein the division unit divides the detection label sequence into the plurality of detection partial label sequences based on a noise amount included in a sound during work as information on the work environment. 4. 前記分割手段は、前記作業環境に関する情報として作業中の音声に含まれる会話の内容に基づき前記検知ラベル列を前記複数の検知部分ラベル列に分割する請求項1又は2記載の画像処理装置。   3. The image processing apparatus according to claim 1, wherein the division unit divides the detection label sequence into the plurality of detection partial label sequences based on the content of a conversation included in a working voice as information on the work environment. 4. 前記分割手段は、前記作業環境に関する情報として作業中の稼働装置の稼働音に基づき前記検知ラベル列を前記複数の検知部分ラベル列に分割する請求項1又は2記載の画像処理装置。   3. The image processing apparatus according to claim 1, wherein the division unit divides the detection label sequence into the plurality of detection partial label sequences based on an operation sound of a working device in operation as the information on the work environment. 4. 前記分割手段は、前記作業環境に関する情報として作業の動作に関連して発生する振動の状態に基づき前記検知ラベル列を前記複数の検知部分ラベル列に分割する請求項1又は2記載の画像処理装置。   3. The image processing apparatus according to claim 1, wherein the division unit divides the detection label sequence into the plurality of detection partial label sequences based on a state of vibration generated in association with a work operation as information on the work environment. 4. . 前記分割手段は、前記作業環境に関する情報として作業の動作に関連して発生する稼働装置の稼働状態に基づき前記検知ラベル列を前記複数の検知部分ラベル列に分割する請求項1又は2記載の画像処理装置。   3. The image according to claim 1, wherein the division unit divides the detection label sequence into the plurality of detection partial label sequences based on an operation state of an operation device generated in association with a work operation as information on the work environment. 4. Processing equipment. 画像処理装置が実行する画像処理方法であって、
作業を撮影した映像の注目領域の動作検知の結果に基づき検知ラベル列を生成する生成工程と、
作業環境に関する情報に基づき前記検知ラベル列を複数の検知部分ラベル列に分割する分割工程と、
前記複数の検知部分ラベル列それぞれについて参照ラベル列との照合方法を選択する選択工程と、
前記選択工程により選択された照合方法で前記複数の検知部分ラベル列それぞれと前記参照ラベル列とを照合する照合工程と、
を含む画像処理方法。
An image processing method executed by the image processing device,
A generation step of generating a detection label sequence based on the result of the motion detection of the attention area of the video of the work,
A dividing step of dividing the detection label string into a plurality of detection partial label strings based on information on a work environment;
A selecting step of selecting a matching method with a reference label string for each of the plurality of detected partial label strings,
A matching step of matching the reference label string with each of the plurality of detected partial label strings by the matching method selected by the selecting step,
An image processing method including:
コンピュータを、請求項1乃至11何れか1項記載の画像処理装置の各手段として機能させるためのプログラム。   A program for causing a computer to function as each unit of the image processing apparatus according to claim 1.
JP2018126755A 2018-07-03 2018-07-03 Image processing device, image processing method, and program Pending JP2020008932A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018126755A JP2020008932A (en) 2018-07-03 2018-07-03 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018126755A JP2020008932A (en) 2018-07-03 2018-07-03 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2020008932A true JP2020008932A (en) 2020-01-16

Family

ID=69151781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018126755A Pending JP2020008932A (en) 2018-07-03 2018-07-03 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2020008932A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022173970A (en) * 2021-05-10 2022-11-22 青▲島▼理工大学 Detection method and device for assembly body muti-view change based on feature matching

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022173970A (en) * 2021-05-10 2022-11-22 青▲島▼理工大学 Detection method and device for assembly body muti-view change based on feature matching
JP7195656B2 (en) 2021-05-10 2022-12-26 青▲島▼理工大学 Multi-viewpoint change detection method and apparatus for assembly based on feature matching

Similar Documents

Publication Publication Date Title
JP6783713B2 (en) Human behavior estimation system
JP4752721B2 (en) Movement pattern identification device, movement pattern identification method, movement pattern identification program, and recording medium recording the same
CN111693794B (en) Abnormality detection device and abnormality detection method
JP2008033532A (en) Method and apparatus for detecting abnormality in equipment provided with movable part
EP3759558B1 (en) Intelligent audio analytic apparatus (iaaa) and method for space system
WO2019172093A1 (en) Work action analysis system and method for analyzing work movement
US20120130682A1 (en) Real-time detection system and the method thereof
US20180165622A1 (en) Action analysis device, acton analysis method, and analysis program
US20200209277A1 (en) System and method for standardized evaluation of activity sequence
JP2009032033A (en) Operation boundary detection method and operation analysis system
JP2020008932A (en) Image processing device, image processing method, and program
JP6504180B2 (en) Anomaly detection device, anomaly detection method and anomaly detection program
CN111385813B (en) System and method for loop duration measurement in repeated activity sequences
JP2018136749A (en) Information processing equipment, information processing method and program
JP2019053527A (en) Assembly work analysis device, assembly work analysis method, computer program, and storage medium
WO2022044637A1 (en) Image processing device, image processing method, and program
JP6828093B2 (en) Operation detection device, operation detection method and operation detection system
Muralidharan et al. Comparative Study of Vision Camera-based Vibration Analysis with the Laser Vibrometer Method
KR101830331B1 (en) Apparatus for detecting abnormal operation of machinery and method using the same
CN115311734A (en) Work support system and work support method
JP7311820B1 (en) Abnormality determination method, abnormality determination device, and program
WO2023105726A1 (en) Work analysis device
WO2023218655A1 (en) Video management device and computer-readable storage medium
EP4354388A1 (en) Task analysis device and method
WO2020136924A1 (en) Motion analysis device, motion analysis method, and motion analysis program