JP2020008932A - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP2020008932A JP2020008932A JP2018126755A JP2018126755A JP2020008932A JP 2020008932 A JP2020008932 A JP 2020008932A JP 2018126755 A JP2018126755 A JP 2018126755A JP 2018126755 A JP2018126755 A JP 2018126755A JP 2020008932 A JP2020008932 A JP 2020008932A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- label
- work
- image processing
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Image Analysis (AREA)
- General Factory Administration (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.
従来、工場の組立作業が正しく行われているかを分析する手法として、組立作業のシーンを撮影した映像中の作業員の動きを解析し、作業手順書の記載内容に照らし合わせる手法が知られている。例えば、映像中の組立作業の発生する箇所に矩形を設定して、その矩形に手が入ったかどうかで組立作業を実施したかを判定する手法がある(特許文献1参照)。 Conventionally, as a method of analyzing whether the assembly work of a factory is performed correctly, a method of analyzing a movement of a worker in a video taken of a scene of the assembly work and comparing it with the contents of a work procedure manual is known. I have. For example, there is a method in which a rectangle is set in a place where an assembling operation occurs in a video, and whether the assembling operation is performed is determined based on whether or not the rectangle is manipulated (see Patent Document 1).
作業手順書には組立作業において行われる作業の順番が記載されていることもあり、作業者によって行われた組立作業の良否を判断するには、作業の順番を加味しなければならないときもある。そのような作業の順番を加味した組立作業の分析には、特許文献1のような、個別作業の発生の有無に注目しているだけでは実現できず、それらの発生の順序を分析する必要がある。そのような手法として、DPマッチングに代表されるような、シーケンスの並びのあいまいさを許容するシーケンスマッチングが知られている。しかし、高い精度が求められる部品の微調整作業等、熟練度に依らず個体ごとに大きく作業内容や作業時間がばらつくものがある。そのような作業が含まれるシーケンスに対してシーケンスマッチングを行うと、全体の照合精度が落ちる場合があった。
The order of work performed in the assembly work may be described in the work procedure manual, and it may be necessary to consider the order of work in order to judge the quality of the assembly work performed by the worker . The analysis of the assembly work taking the order of such work into consideration cannot be realized merely by paying attention to the presence or absence of the individual work as in
本発明の画像処理装置は、作業を撮影した映像の注目領域の動作検知の結果に基づき検知ラベル列を生成する生成手段と、作業環境に関する情報に基づき前記検知ラベル列を複数の検知部分ラベル列に分割する分割手段と、前記複数の検知部分ラベル列それぞれについて参照ラベル列との照合方法を選択する選択手段と、前記選択手段により選択された照合方法で前記複数の検知部分ラベル列それぞれと前記参照ラベル列とを照合する照合手段と、を有する。 The image processing apparatus according to the present invention includes: a generation unit configured to generate a detection label sequence based on a result of motion detection of a region of interest of a video image of a work; and a plurality of detection partial label sequences based on work environment information. Dividing means, selecting means for selecting a matching method with a reference label string for each of the plurality of detected partial label strings, and each of the plurality of detected partial label strings with the matching method selected by the selecting means. Collating means for collating with the reference label sequence.
本発明によれば、作業が正しく行われたか否かを判断する照合精度を向上することができる。 ADVANTAGE OF THE INVENTION According to this invention, the collation precision which determines whether the operation | work was performed correctly can be improved.
以下、本発明の実施形態について図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<実施形態1>
図1は、作業評価制御装置100のハードウェア構成の一例を示す図である。作業評価制御装置100は、画像処理装置の一例である。
制御部101は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等により構成され、情報処理のための演算や論理判断等を行う。制御部101は、システムバス106を介して、システムバス106に接続された各構成要素を制御する。
表示部102は、画像情報の表示を制御するコントローラ及び液晶パネル、又はプロジェクタ、又は警告等の出力装置を含む。
通信部104は、ネットワークコントローラ等であり、他の装置との接続を制御する外部通信手段である。より具体的には、通信部104は、LAN、3G、4G、Bluetooth(登録商標)、RFID(Radio Frequency Identification)等の通知方式で他の装置との接続を制御する。但し、通信部104は、同様の目的を達成できる他の通信方式を採用してもよい。作業評価制御装置100は、通信部104を介して、生産ライン及び人物(人物の行動を含む)を撮影する映像取得装置309より映像を受信する。
<First embodiment>
FIG. 1 is a diagram illustrating an example of a hardware configuration of the work
The
The
The
計測部105は、GPS(Global Positioning System)センサ、ジャイロセンサ、人体モーションセンサ、電子コンパス等である。計測部105は、人物の位置、人物の姿勢(方角、各関節の回転・角度・角速度)、生産ラインの工具の稼働状況、騒音等を計測する。
RAM(Random Access Memory)107は、各構成要素からの各種データの一時記憶に用いられる。例えば、RAM107は、各種計測データ、又は画像データ等を一時的に記憶する。
外部記憶部108、フラッシュメモリ、HDD、又は光学ディスク等の物理媒体を用いて、本実施形態で実行されるプログラムの他、図4で述べる各種データ等、計測データ、画像データを記憶する。
上記の各構成要素からなる作業評価制御装置100は、映像記録部103から供給される各種映像、通信部104から供給されるネットワーク経由の各種入力、又は計測部105から入力される計測値に応じて作動する。即ち、映像記録部103、通信部104、計測部105何れかからの入力が供給されると、インタラプト信号が制御部101に送られる。そして、制御部101が、外部記憶部108に記憶された各種のプログラムを読み出し、プログラムに従って各種の制御を実行する。制御部101が、プログラムに基づき処理を実行することにより、後述する図2の作業評価制御装置100の機能構成、及び、後述する図6、図9のフローチャートの処理が実現される。
The
A RAM (Random Access Memory) 107 is used for temporarily storing various data from each component. For example, the
By using a physical medium such as an
The work
図2は、作業評価制御装置100の機能構成の一例を示す図である。
注目領域制御部201は、映像記録部103で得られた動画の各フレームから被写体の動きや有無変化等が発生しうる注目領域を座標群と対応するラベルとで管理する。物体検知部202は、実際に各注目領域内の動きや有無変化を検知する。検知ラベル列制御部203は、検知結果をラベル列として蓄積する処理を行う。
FIG. 2 is a diagram illustrating an example of a functional configuration of the work
The attention
まず、工場の組立作業の事例、作業評価制御装置100の目的、技術課題、解決方法を概説する。図3(A)は作業台301において作業者308が組立作業を行う作業場の様子を表している。作業台301はワークベンチ302、組立対象物303、シールケース304、ビスケース305、ゴミ箱306、ドライバ受け307、映像取得装置309からなる。この作業場においては、複写機の内部に組み込む現像器や定着器等の組立対象物をワークベンチに置き、組立対象物の組み立てを行うものである。作業者は組立作業手順書に従い組立作業を行う。したがって作業評価制御装置100の目的は、作業者が組立作業手順書に従って組立作業を行ったかどうかを判定することである。
First, an example of a factory assembling operation, the purpose, a technical problem, and a solution of the operation
図3(B)に示したのは、実際に作業台301を対象に作業検知を行う際の全体の構成要素を表している。本実施形態の例においては、作業評価制御装置100は、映像取得装置309から得られる映像取得結果の各フレームにおいて作業と関連する動作が生じうる場所に事前に注目領域を1つ以上設定する。例えば、シールを貼る場合には組立対象物303とシールケース304とに、ドライバを用いる場合にはビスケース305と組立対象物303とに、ゴミ箱にものを捨てる場合にはゴミ箱306に、動きの発生が期待できる。作業評価制御装置100は、このような場所に注目領域を付与する。この注目領域は任意矩形範囲で指定するものとし、作業評価制御装置100は、それぞれに番号等、相互に区別可能なラベルを割り当てる。後述する一連の認識処理において、作業評価制御装置100は、注目領域における手先の通過検知や物体有無検知を行う。以降の説明では、組立に必要な動き1つ1つを「動作」と呼ぶこととし、各「作業」は複数の「動作」から構成されることとする。図3(B)において点線の矩形が注目領域である。また、下線付き数字は注目領域の番号である。
図3(C)に示したのはワークベンチ302において作成する組立対象物303の具体例である。薄いシート状の物体が通過することを想定した製品の例である。本体310に金具311がビス312で打ち付けられている。隙間遊び測定具313はシートの隙間が妥当であるかを確認するためのものである。
FIG. 3B illustrates the entire components when actually performing work detection on the
FIG. 3C shows a specific example of the
図4(A)(B)は作業手順書の例である。作業手順書には作業手順の詳細な説明文が記載されている。本実施形態の例における組立作業は主に、金具の取り付け(作業1)、ビス締め(作業2)、金具位置の微調整(作業3)、シール貼り付け(作業4)等である。
作業1:金具の取り付け(金具311)
動作1:金具311を本体310に装着
作業2:ビス締め(ビス312)
動作1:ドライバ取得、動作2:ビス取得、動作3:ビス締め、動作4:ドライバ戻し
作業3:金具位置の微調整(金具311)
動作1:隙間遊び測定具313で隙間測定、金具311を微調整
作業4:シール貼付
動作1:シール取得、動作2:シール右端貼付、動作3:シール左端貼付、動作4:シール裏紙破棄
(作業5以降は省略)
更に、各作業の具体的な組立作業について説明すると、作業2については、右手でドライバを取り左手でビス箱からビスを取り、組立対象物中央の黒丸のビス穴にビスを締めて、ドライバを戻すという流れである。作業3については隙間遊び測定具313を用いて遊びを確認し、適宜、ビス312を緩めたうえで金具311の位置を調整した後、ビス312を締めなおすものである。作業4については、シールを取り、組立対象物の左半分に貼り付け、ゴミ箱に裏紙を捨てるという流れである。これらは、作業手順書に記載があり、作業者はこの順番で組立作業を進めなければならない。
4A and 4B are examples of a work procedure manual. The work procedure manual contains a detailed explanation of the work procedure. The assembling work in the example of the present embodiment mainly includes fitting of a metal fitting (work 1), screw tightening (work 2), fine adjustment of metal fitting position (work 3), sticking of a seal (work 4), and the like.
Work 1: Mounting of metal fittings (metal fitting 311)
Operation 1: Mounting the metal fitting 311 on the
Operation 1: driver acquisition, operation 2: screw acquisition, operation 3: screw tightening, operation 4: driver return work 3: fine adjustment of metal fitting position (metal fitting 311)
Operation 1: Gap measurement with the clearance
Further, a specific assembling work of each work will be described. In the
図5の領域定義テーブル501は図3(B)に示した注目領域の定義を保存する。また、検知ラベル列格納テーブル502は本実施形態の装置によって認識される作業の履歴を注目領域と紐づけて保存する。図5に示されるテーブルは、外部記憶部108に記憶される。
The region definition table 501 in FIG. 5 stores the definition of the region of interest shown in FIG. The detection label string storage table 502 stores the history of the work recognized by the apparatus of the present embodiment in association with the attention area. The table illustrated in FIG. 5 is stored in the
図6は、実施形態1の作業評価制御装置100の情報処理の一例を示すフローチャートである。フローチャートの全体は映像取得装置309で取得されるフレーム毎にループする構造となっている。作業評価制御装置100は、撮影された映像の各フレームにおいて上述の注目領域内の映像の変化を検知し、上述の組立作業の流れと注目領域の変化との間に想定通りの対応があれば組立作業が正しく実施されたと判断する。組立作業の最初から最後までにおいて検知したラベルを蓄積したものを検知ラベル列という。作業手順書で記載されている動作の順序に基づき、ラベルを並べた列を参照ラベル列という。作業評価制御装置100は、検知ラベル列が参照ラベル列と比較して妥当な並びになっているかを検証する。作業評価制御装置100は、妥当な並びであれば組立作業は正しく実施されたと判断し、そうでなければ組立作業は失敗と判断する。
映像取得装置309によって組立作業を撮影する。映像取得装置309は、作業場の上部等に設置したカメラから撮影する。S601において、制御部101は、映像取得装置309より映像フレームを受信する。
S602において、制御部101は、映像フレーム内の注目領域群の画像を取得する。続いて、ここで取得した注目領域毎にS603からS606までループ実行する。
FIG. 6 is a flowchart illustrating an example of information processing of the work
The assembly operation is photographed by the
In step S602, the
S603において、制御部101は、注目領域内の動作検知を行う。動作検知は画像輝度のフレーム間差分、SIFT等の特徴量のフレーム間差分、基準輝度値との比較、カメラ画角内物体の通過、物体形状の変化等を用いて行う。
S604において、制御部101は、動作検知の有無を判定する。制御部101は、動作検知があった場合にはS605に、なかった場合にはS606に推移する。
S605において、制御部101は、検知ラベル列に検知結果を反映する。より具体的には、制御部101は、検知された注目領域に振られたラベルを検知ラベルとして扱い、それを発生時刻等と紐づけて時系列的に生成・蓄積する。図7(A)(B)に示したのは実際に検知された検知ラベル列の例である。作業者はビス締め作業において、本体310に金具311をビス312で打ち付ける。続けてシートの隙間が妥当であるかを確認するために、隙間遊び測定具313を用いて隙間を測定する。このとき、隙間が基準通りにできていない場合はビス312を緩めたり金具を押し付けたりする等して隙間を微調整する。この微調整作業は生産する個体ごとに不規則に発生するため、図7(A)(B)に示した例にあるように、他の作業に比べてラベル列の長さ、ラベルの先頭と末尾との発生時刻差、含まれるラベルの種類がばらつく傾向にある。このような状況においては、制御部101は、参照ラベル列と検知ラベル列との照合精度が落ちてしまうため、注目領域間の物体有無変化の対応等から作業の切り替わりと相関のある作業環境変化を抽出し、照合方法を適応的に変更することが有効である。一種類による照合方法で全体を検知する場合には、微調整作業によるラベル長・ラベル種類数の不規則性が他の作業のラベルに対する望ましい紐づけを妨げるためである。
そこでS606において、制御部101は、作業環境変化を効率的に取得するために、各注目領域内の物体有無状態を更新する。有無判定対象となるのは、作業者の手、作業者の腕、作業に用いる部品、作業に用いる備品等である。
S607において、制御部101は、検知ラベル列分割を行い、検知ラベル列を1つ以上の検知部分ラベル列に分割する。その上で、制御部101は、部分検知ラベル列毎にS608〜S609をループ実行する。
In step S603, the
In step S604, the
In step S605, the
Therefore, in step S606, the
In step S607, the
S608において、制御部101は、事前に決めておいた条件に基づいて部分シーケンス照合手段の選択を行う。
ここで、部分シーケンス照合手段の詳細について述べる。本実施形態の例では基本的にシーケンスマッチングを用いる。シーケンスマッチングとは、2つの時系列データが正確に一致していなくても、時系列データを構成するラベルの発生順序の概略が似ていれば2つの時系列データは同一であるとみなす、あいまいさを許容するマッチング手法のことである。シーケンスマッチングを導入する理由は、動作から次の動作に移る間等、動作以外にも手が注目領域に入ることがあり、正しく組立作業を行っていても検知ラベル列と参照ラベル列とが正確に一致することはないからである。本実施形態においては、DPマッチングと呼ばれるシーケンスマッチングを使うものとする。DPマッチングは、2つの時系列データ(参照、観測)の類似度を測定する手法であり、照合のコストが最も小さくなるように参照時系列データのラベルに、観測時系列データのラベルを紐付けていく。その過程でDPマッチングはノイズの影響を最小限にする処理をするため、シーケンスマッチングとして用いることができる。より具体的な事例を交えた照合方法は図8(A)に記している。参照時系列データとして1、2、3、4、観測時系列データとして1、2、4、3、4を用いる。観測時系列データにおける2つの4のうち最初の4はノイズである。図8(A)において、左下から右上に向かってラベルの紐付けを行うものとして、各セルには左下から、該当のセルを共有する参照、観測の各時系列のラベルを紐付けるまでの最低コストを記す。また、各セルの最低コストの算出には、最低コストを算出済みの下、左下、左の3つのセルから算出し、これを繰り返すという簡易な演算で左下から右上までを紐付けていく上での最低コストを導出する。また、3つのセルのうち、いずれのセルを採用したかを記録しておくので、最終的な右上の最低コストの導出では、どのような経路を通ったかを導くことはできる。詳細な計算は省略するが、図8(A)のDPマッチングをした結果は図8(B)となり、濃いセルをたどる経路が最低コストを実現した経路となる。紐付けの結果を具体的に示した図は図8(C)となり、ノイズの"4"は参照時系列データの"4"ではなく、"2"に付随したノイズとして紐付けられている。
In step S608, the
Here, the details of the partial sequence matching means will be described. In the example of this embodiment, sequence matching is basically used. Sequence matching means that even if two time-series data do not exactly match, two time-series data are regarded as the same if the generation order of labels constituting the time-series data is similar, which is ambiguous. Is a matching method that allows for The reason for introducing sequence matching is that the hand may enter the attention area in addition to the operation, such as during the transition from one operation to the next operation, so that even if the assembly work is performed correctly, the detection label string and the reference label string are accurate Because it does not match. In the present embodiment, sequence matching called DP matching is used. DP matching is a method of measuring the similarity between two time-series data (reference and observation), and links the label of the observation time-series data to the label of the reference time-series data so as to minimize the cost of matching. To go. In the process, DP matching can be used as sequence matching because it performs processing to minimize the influence of noise. FIG. 8A shows a collation method using more specific cases. 1, 2, 3, 4 are used as reference time series data, and 1, 2, 4, 3, 4 are used as observation time series data. The first four of the two fours in the observation time series data are noise. In FIG. 8 (A), assuming that labels are linked from the lower left to the upper right, each cell has a minimum value from the lower left until the label of each time series of reference and observation is shared from the lower left. Write down the cost. In calculating the lowest cost of each cell, the lowest cost is calculated from the three cells, that is, the lower left, the lower left, and the left, and the lower left to the upper right are linked by a simple operation of repeating this. Derive the lowest cost of In addition, since which cell of the three cells is adopted is recorded, in the final derivation of the lowest cost on the upper right, it is possible to derive what route has been taken. Although the detailed calculation is omitted, the result of the DP matching shown in FIG. 8A is as shown in FIG. 8B, and the path following the dark cell is the path that realizes the lowest cost. FIG. 8C specifically shows a result of the linking, in which the noise “4” is linked not as “4” of the reference time-series data but as noise accompanying “2”.
一方で、遊び調整作業のような個体ごとにばらつきが大きい作業では、図7(C)のような参照ラベル列の固定を前提としたDPマッチングでは作業照合精度が低くなる課題がある。そこで本実施形態では、作業の種類が変わっても検知精度を維持するため、制御部101は、S603、S606で収集した各注目領域の動作検知及び物体有無状態を用いて検知方法を適応的に選択する。図7(D)に示したのはその具体例である。図7(C)との違いは、制御部101が、微調整作業においてラベル種類数とそれらの時間占有率とを測定するように変更している点である。更に、図7(E)に示したように、制御部101は、その切り替えのトリガとしては使用道具である隙間遊び測定具313等、特定物体の所定の置場の注目領域(ID=7)を用いて、その中の隙間遊び測定具313の有無を検知する。特定物体の有無は仕掛中の作業と関連する作業環境変化として用いることができる。したがって、制御部101は、この情報を基にラベル列を部分シーケンスに分割し、部分シーケンスごとにDPマッチングに限らない部分シーケンス照合手段を選択する。より具体的には、制御部101は、作業対象の特性に合わせて検知方法を切り替える(図7(F))。例えば、制御部101は、本実施形態で述べる例以外にも、押さえつける作業が中心の作業に対しては所要時間を、塗装作業等においては注目領域内の平均輝度値を、割り込み作業であることが自明である場合には照合対象外にする等、適宜適切なものを選択することができる。こうすることで、作業順よりも作業内容の内訳が重要な微調整作業に冗長な照合が可能となる。その上、シール貼り付け作業の後に再度微調整作業を行う等、作業順が前後する場合においても冗長な作業照合を行うことができる。ここで、制御部101は、特定物体の有無に限らず、特定物体の位置、又は特定物体の向き、測定特定物体の種類に基づき、検知ラベル列を複数の検知部分ラベル列に分割するようにしてもよい。DPマッチング以外のマッチング方法(部分シーケンス照合手段)としては、分割時間の長さ、検知ラベル列の長さ、検知ラベル列の種類の数、各ラベルの占める割合、映像の平均輝度等に基づくマッチング方法がある。
S609において、制御部101は、選択した部分シーケンス照合手段を用いて部分シーケンスの照合を行う。
On the other hand, in an operation such as a play adjustment operation in which there is a large variation between individuals, there is a problem that the operation matching accuracy is reduced in DP matching assuming that the reference label string is fixed as shown in FIG. Therefore, in the present embodiment, in order to maintain the detection accuracy even when the type of work changes, the
In step S609, the
S610において、制御部101は、各部分シーケンス照合結果を統合し、作業手順書全体で作業が正しく行われたか否かを判定する。制御部101は、各部分シーケンスについてあえて複数の検知方法を選択して並走させたうえで、それらの結果を統合するようにしてもよい。例えば、制御部101は、統合方法としては作業漏れの有無検知ならば複数手法の結果の多数決で行う。こうすることで、データ収集が十分でない状況下等、1つ1つの手法による検知の結果が不安定になる場合においても、冗長な検知を実現できる。
S611において、制御部101は、検知結果を出力する。
なお、本実施形態の例に挙げたS608の部分シーケンス照合手段の選択の条件は、実施前に事前決定する方法のほか、作業履歴を蓄積していく過程で、監督者がフィードバックをかけていく等して動的に決定してもよい。こうすることで、どのシーケンス照合手段が妥当であるか前例が少なく判断が難しい場合にも適用可能になる。またS607の検知ラベル列分割処理の分割基準は1つの注目領域の有無に限らない。例えば、複数の注目領域における有無の組み合わせを用いることによって、より複雑かつ冗長な分割条件となることを期待できる。
In step S610, the
In S611, the
In addition, the conditions for selecting the partial sequence matching unit in S608 described in the example of the present embodiment are determined in advance before the implementation, and the supervisor gives feedback in the process of accumulating the work history. For example, it may be determined dynamically. By doing so, it is possible to apply even when it is difficult to determine which sequence matching means is appropriate and there are few precedents. The division criterion of the detection label string division processing in S607 is not limited to the presence or absence of one attention area. For example, by using a combination of presence or absence in a plurality of regions of interest, more complex and redundant division conditions can be expected.
以上、本実施形態における例においては、作業を構成する動作に関連する作業環境変化を基に検知ラベル列を複数の検知部分ラベル列に分割したうえで、それぞれ検知手法を変更する。こうすることで、作業内容や作業時間がばらつく作業の影響が作業分析対象全体に及ぶことを防ぐ効果があり、その結果として、作業が正しく行われたか否かを判断する照合精度が向上し、組立作業の監督者は的確に組立作業のやり直し等の指示を出せるようになる。 As described above, in the example of the present embodiment, the detection method is changed after dividing the detection label sequence into a plurality of detection partial label sequences based on the change in the work environment related to the operation configuring the work. This has the effect of preventing the effects of work in which the work content and work time vary from affecting the entire work analysis target, and as a result, the collation accuracy for judging whether or not the work has been correctly performed is improved, The supervisor of the assembling work will be able to give instructions such as re-assembly work accurately.
<実施形態2>
次に、実施形態2として、作業中のライン内に配置されたセンサ等から読み出す装置稼働音等の音声取得結果や振動状態計測結果、稼働状態変化計測結果を用いる例について述べる。この例によれば、より多様な作業照合を可能にする。
本実施形態は実施形態1と同様の構成を持つ。図9は、実施形態2の作業評価制御装置100の情報処理の一例を示すフローチャートである。本実施形態では照合精度を更に高めるためにS907〜S908の処理を検知ラベル列分割処理の前に追加している。この検知ラベル列分割処理の詳細と、その追加によって生じる後段の処理の差分について以下に述べる。
<
Next, as a second embodiment, an example will be described in which a sound acquisition result such as a device operation sound read from a sensor or the like arranged in a line in operation, a vibration state measurement result, and an operation state change measurement result are used. According to this example, more various work collations can be performed.
This embodiment has the same configuration as the first embodiment. FIG. 9 is a flowchart illustrating an example of information processing of the work
S907において、制御部101は、ライン内に配置されたセンサ等から稼働装置の稼働音等の音声信号、振動の状態、稼働状態を収集する。より具体的には、センサは、映像取得装置309に付帯のマイク、ドリルの電源ON/OFFセンサ、掃除機の電源ON/OFFセンサ、作業台301付帯の振動センサ等である。これは、生産作業では大きな稼働音や振動を発する道具を用いる場合があることから、各種センサの情報を基に効率的に照合手段の切り替えを行うことを期待している。
S908において、制御部101は、収集したセンサ測定値の解析を行う。音声から騒音量、特定の周波数の強さを特徴量として抽出し、基準値判定(出力50%等)することで、ドリルや掃除機の稼働状態(ON/OFF等)を細かく取得することができる。また、制御部101は、作業者の会話内容を音声認識することで、発話時の作業内容を推定することができる。
In step S907, the
In step S908, the
S910において、制御部101は、これらの情報を基に部分シーケンス照合手段を選択する。例えば、作業7、ビス部ホコリ吸い取り作業の例について述べる。これは、ビスを金具311の装着時や微調整時に繰り返し着脱を繰り返す際に発生する微細なホコリを、不良品発生防止のために吸い取る作業である。注目領域のみによる検知では、掃除機の先端が付近を通過したことは追尾できるが、実際に吸い取っているかどうかまでは判断が難しい。かつ、この作業は微調整作業と同様に吸い出しタイミングや回数が不規則に発生する。そこで、制御部101は、掃除機の電源ON/OFFセンサの動き、又はマイクから録音した掃除機の稼働音の検出有無によって照合方法を切り替える。より具体的には、制御部101は、吸い出しを行う間に対応する検知ラベル列を吸い出し作業と推定したうえで、ラベル種類数とそれらの時間占有率とを測定する照合方法をとるように変更する。こうすることで、注目領域のみの動作検知では妥当性判断が難しく、かつ、個体ごとにばらつきがある作業を精度よく検知することができる。なお、微調整作業とホコリ吸い取り作業とに強い関連がある場合のように、事前に特定作業との関連が明らかである場合には、制御部101は、それぞれの作業で検知したラベル種類数と時間占有率との一致度によって作業の妥当性を判断してもよい。こうすることで、微調整作業が多いにもかかわらず、ホコリ吸い取り作業が少ない個体が作られた場合等、品質リスクが高いと考えられる作業を効率的に抽出することができる。本実施形態のDPマッチング以外のマッチング方法(部分シーケンス照合手段)としては、音声の信号量、特定周波数の有無等に基づくマッチング方法がある。
In step S910, the
以上、ライン内に配置されたセンサ等から読み出す音声信号、振動値を用いることによって、より多様な作業照合を可能にする例について述べた。これにより、注目領域のみの動作検知では妥当性判断が難しく、かつ、個体ごとにばらつきがある作業を精度よく検知する効果が得られる。 In the foregoing, an example has been described in which more various work collations can be performed by using a voice signal and a vibration value read from a sensor or the like arranged in a line. As a result, it is difficult to determine the validity by detecting the motion of only the attention area, and the effect of accurately detecting the work that varies from one individual to another can be obtained.
(変形例)
実施形態1及び実施形態2ではそれぞれ作業台をベースに行うセル生産作業の例を示したが、これらのユースケースに限定されることはない。映像をベースに動作履歴を追尾可能なユースケースであれば広く適用可能である。例えば、物流倉庫における梱包・包装作業等にも適用できる。この場合、制御部101は、ガムテープ等の残量によって個体ごとにばらつく作業を他の作業と別途切り出してシーケンス照合することによって、作業全体の照合精度を高めることができる。
また、実施形態2では作業中のライン内に配置されたセンサ等から得られた結果を基に検知ラベル列の分割を行う例を示したが、これだけではなく、制御部101は、得られた値を基にラベル列を生成することでもよい。こうすることで、映像のみに頼るラベル列よりも精度の高いラベル列を得られる。例えば、制御部101は、手の先がある注目領域を通過する場合に、掃除機の稼働状態がONであるかOFFであるかを別ラベルとして扱う。
また、上述した実施形態ではシーケンスマッチングの手法としてはDPマッチングを用いた手法及びラベル種類数と時間占有率との一致度を開示しているが、これらに限られることはない。例えば、オートマトンやHMM等のモデルを用いた手法を用いる場合にも有効である。モデルの事前設計や適用方法はDPマッチングとまったく同様に行うことができる。これらのモデルは、手元の移動が一連の作業で八の字を描くこと等が事前に分かっている場合等、ラベル列の推移が特徴的である場合等に有効である。
(Modification)
In the first and second embodiments, examples of the cell production operation performed based on the work table are shown, but the present invention is not limited to these use cases. The present invention is widely applicable to use cases in which the operation history can be tracked based on video. For example, the present invention can be applied to packing and packing work in a distribution warehouse. In this case, the
Further, in the second embodiment, an example is shown in which the detection label sequence is divided based on the results obtained from the sensors and the like arranged in the line in operation, but the
In the above-described embodiment, a method using DP matching and a degree of coincidence between the number of label types and the time occupancy are disclosed as a method of sequence matching, but the present invention is not limited thereto. For example, it is also effective when a method using a model such as an automaton or an HMM is used. The pre-design and application of the model can be performed in exactly the same way as in DP matching. These models are effective, for example, when it is known in advance that the movement of the hand draws a figure of eight in a series of operations, or when the transition of the label sequence is characteristic.
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium. The present invention can also be realized by processing in which one or more processors in a computer of the system or the apparatus read and execute a program. Further, it can be realized by a circuit (for example, an ASIC) that realizes one or more functions.
以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
例えば、作業評価制御装置100のハードウェア構成として制御部101、RAM107、外部記憶部108等は1つである必要はない。複数の制御部がプログラムに基づき、複数のRAM、外部記憶部等に記憶されたデータ等を用いながら処理を実行するようにしてもよい。
As described above, an example of the embodiment of the present invention has been described in detail, but the present invention is not limited to the specific embodiment.
For example, the hardware configuration of the work
以上、上述した各実施形態によれば、作業を構成する動作に関連する作業環境変化を基に検知ラベル列を複数の検知部分ラベル列に分割したうえで、それぞれ検知手法を変更することで、例外性や時間ばらつきのある作業の影響が分析対象全体に及ぶことを防ぐ。この結果として、作業が正しく行われたか否かを判断する照合精度が向上し、組立作業の監督者は的確に組立作業のやり直し等の指示を出せるようになる。 As described above, according to each of the above-described embodiments, the detection label sequence is divided into a plurality of detection partial label sequences based on a change in the work environment related to the operation configuring the work, and then the detection method is changed. Prevent the effects of work with exceptions and time variations from affecting the entire analysis target. As a result, the collation accuracy for judging whether or not the work has been correctly performed is improved, and the supervisor of the assembling work can accurately give an instruction to start the assembling work again.
100 作業評価制御装置
101 制御部
100 work
Claims (13)
作業環境に関する情報に基づき前記検知ラベル列を複数の検知部分ラベル列に分割する分割手段と、
前記複数の検知部分ラベル列それぞれについて参照ラベル列との照合方法を選択する選択手段と、
前記選択手段により選択された照合方法で前記複数の検知部分ラベル列それぞれと前記参照ラベル列とを照合する照合手段と、
を有する画像処理装置。 Generating means for generating a detection label sequence based on a result of the motion detection of the attention area of the video of the work,
Division means for dividing the detection label string into a plurality of detection partial label strings based on information on a work environment,
Selection means for selecting a matching method with a reference label string for each of the plurality of detection partial label strings,
Collating means for collating each of the plurality of detected partial label strings with the reference label string by a collation method selected by the selecting means,
An image processing apparatus having:
作業を撮影した映像の注目領域の動作検知の結果に基づき検知ラベル列を生成する生成工程と、
作業環境に関する情報に基づき前記検知ラベル列を複数の検知部分ラベル列に分割する分割工程と、
前記複数の検知部分ラベル列それぞれについて参照ラベル列との照合方法を選択する選択工程と、
前記選択工程により選択された照合方法で前記複数の検知部分ラベル列それぞれと前記参照ラベル列とを照合する照合工程と、
を含む画像処理方法。 An image processing method executed by the image processing device,
A generation step of generating a detection label sequence based on the result of the motion detection of the attention area of the video of the work,
A dividing step of dividing the detection label string into a plurality of detection partial label strings based on information on a work environment;
A selecting step of selecting a matching method with a reference label string for each of the plurality of detected partial label strings,
A matching step of matching the reference label string with each of the plurality of detected partial label strings by the matching method selected by the selecting step,
An image processing method including:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018126755A JP2020008932A (en) | 2018-07-03 | 2018-07-03 | Image processing device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018126755A JP2020008932A (en) | 2018-07-03 | 2018-07-03 | Image processing device, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020008932A true JP2020008932A (en) | 2020-01-16 |
Family
ID=69151781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018126755A Pending JP2020008932A (en) | 2018-07-03 | 2018-07-03 | Image processing device, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020008932A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022173970A (en) * | 2021-05-10 | 2022-11-22 | 青▲島▼理工大学 | Detection method and device for assembly body muti-view change based on feature matching |
-
2018
- 2018-07-03 JP JP2018126755A patent/JP2020008932A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022173970A (en) * | 2021-05-10 | 2022-11-22 | 青▲島▼理工大学 | Detection method and device for assembly body muti-view change based on feature matching |
JP7195656B2 (en) | 2021-05-10 | 2022-12-26 | 青▲島▼理工大学 | Multi-viewpoint change detection method and apparatus for assembly based on feature matching |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6783713B2 (en) | Human behavior estimation system | |
JP4752721B2 (en) | Movement pattern identification device, movement pattern identification method, movement pattern identification program, and recording medium recording the same | |
CN111693794B (en) | Abnormality detection device and abnormality detection method | |
JP2008033532A (en) | Method and apparatus for detecting abnormality in equipment provided with movable part | |
EP3759558B1 (en) | Intelligent audio analytic apparatus (iaaa) and method for space system | |
WO2019172093A1 (en) | Work action analysis system and method for analyzing work movement | |
US20120130682A1 (en) | Real-time detection system and the method thereof | |
US20180165622A1 (en) | Action analysis device, acton analysis method, and analysis program | |
US20200209277A1 (en) | System and method for standardized evaluation of activity sequence | |
JP2009032033A (en) | Operation boundary detection method and operation analysis system | |
JP2020008932A (en) | Image processing device, image processing method, and program | |
JP6504180B2 (en) | Anomaly detection device, anomaly detection method and anomaly detection program | |
CN111385813B (en) | System and method for loop duration measurement in repeated activity sequences | |
JP2018136749A (en) | Information processing equipment, information processing method and program | |
JP2019053527A (en) | Assembly work analysis device, assembly work analysis method, computer program, and storage medium | |
WO2022044637A1 (en) | Image processing device, image processing method, and program | |
JP6828093B2 (en) | Operation detection device, operation detection method and operation detection system | |
Muralidharan et al. | Comparative Study of Vision Camera-based Vibration Analysis with the Laser Vibrometer Method | |
KR101830331B1 (en) | Apparatus for detecting abnormal operation of machinery and method using the same | |
CN115311734A (en) | Work support system and work support method | |
JP7311820B1 (en) | Abnormality determination method, abnormality determination device, and program | |
WO2023105726A1 (en) | Work analysis device | |
WO2023218655A1 (en) | Video management device and computer-readable storage medium | |
EP4354388A1 (en) | Task analysis device and method | |
WO2020136924A1 (en) | Motion analysis device, motion analysis method, and motion analysis program |