JP2020068009A - Operation detection device, operation detection method, and operation detection system - Google Patents

Operation detection device, operation detection method, and operation detection system Download PDF

Info

Publication number
JP2020068009A
JP2020068009A JP2019118627A JP2019118627A JP2020068009A JP 2020068009 A JP2020068009 A JP 2020068009A JP 2019118627 A JP2019118627 A JP 2019118627A JP 2019118627 A JP2019118627 A JP 2019118627A JP 2020068009 A JP2020068009 A JP 2020068009A
Authority
JP
Japan
Prior art keywords
detection
target
unit
operation mode
operation detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019118627A
Other languages
Japanese (ja)
Other versions
JP6828093B2 (en
Inventor
ヨンミン・ウー
Young Ming Wu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dynabook Inc
Original Assignee
Dynabook Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dynabook Inc filed Critical Dynabook Inc
Publication of JP2020068009A publication Critical patent/JP2020068009A/en
Application granted granted Critical
Publication of JP6828093B2 publication Critical patent/JP6828093B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06398Performance of employee with respect to a job function
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Social Psychology (AREA)
  • Game Theory and Decision Science (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Primary Health Care (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Psychiatry (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Manufacturing & Machinery (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

To provide an operation detection device, an operation detection method, and an operation detection system capable of detecting accurately in real time an operation of each operator on a production line without relying on manual work.SOLUTION: An operation detection device according to an embodiment includes: an object detection model acquisition part; an object information acquisition part; a detection image input part; and an operation detection part. The object detection model acquisition part acquires an object detection model based on a plurality of training images. The object information acquisition part acquires object information on the basis of the plurality of training images and the object detection model acquired by the object detection model acquisition part. The detection image input part inputs a detection image for detecting an operation of an operator. The operation detection part detects the operation on the basis of the object information acquired by the object information acquisition part and the detection image input by the detection image input part.SELECTED DRAWING: Figure 3

Description

本発明の実施形態は、操作検出装置、操作検出方法及び操作検出システムに関する。   Embodiments of the present invention relate to an operation detection device, an operation detection method, and an operation detection system.

現在、様々な業種において、様々な製品の製造生産又は組立生産の生産ラインが広く用いられている。稼働効率及び生産量を向上させるように、各生産ラインにおいて、各生産単位は、いずれかのセグメントの作業だけを集中的に処理する。通常、工場の需要、製品の複雑さ及び製造や組立の複雑さ等に応じて、生産ラインに複数のステーションを配置することができる。各ステーションでのオペレータは、何れも他のオペレータと異なる操作を手動で繰り返す。オペレータは、1つのステーションでの操作を完了した後に、次のステーションに流れて操作を行い、最後に製造/組立を完了する。   At present, production lines for manufacturing or assembling various products are widely used in various industries. In each production line, each production unit intensively processes the work of either segment so as to improve the operation efficiency and the production amount. Generally, a plurality of stations can be arranged in a production line depending on factory demand, product complexity, manufacturing or assembly complexity, and the like. The operator at each station manually repeats operations different from those of other operators. After completing the operation at one station, the operator flows to the next station to perform the operation and finally completes the manufacturing / assembly.

従って、生産ライン全体の各ステーションでのオペレータの操作は、製品の品質及び生産ライン全体の効率に直接関係する。製品の品質及び生産ライン全体の効率を保証するために、通常は、様々な要因を総合的に考慮して生産ライン全体の各ステーションに、対応する作業工程を設定し、かつ対応する作業マニュアルを備える。作業マニュアルは、通常、作業工程に含まれる複数の動作及び基準時間を含む。しかしながら、実際には、オペレータによる操作は手動による操作であり、かつ操作環境に不安定要因が存在するため、各オペレータにとって、繰り返した複数回の操作が何れも同じであるのを保証することが困難である。さらに、繰り返した複数回の操作の毎回の操作が何れも厳密に作業マニュアルに適合することを確保することが困難である。そして、各オペレータ間にも技能の差が存在する。従って、このような再現性を保証できない。作業マニュアルに対するばらつき及び技能の差は、製品の欠陥等の品質問題を引き起こす可能性があるだけでなく、生産ライン全体の生産ラインバランスに影響を与える可能性もある。生産ラインバランスは、各ステーションの操作を平均化し、作業荷重を調整することにより各操作時間ができるだけ近くなるようにする技術的手段及び方法であり、その良否は生産ラインの生産効率及び製品品質に直接関係する。   Therefore, the operator's operation at each station of the whole production line is directly related to the quality of the product and the efficiency of the whole production line. In order to guarantee the quality of products and the efficiency of the whole production line, it is usual to set various working processes at each station of the whole production line, and to prepare a corresponding work manual, by comprehensively considering various factors. Prepare The work manual usually includes a plurality of actions and reference times included in the work process. However, in reality, the operator's operation is a manual operation, and there are instability factors in the operating environment. Therefore, it is possible to guarantee for each operator that all repeated operations are the same. Have difficulty. Further, it is difficult to ensure that each operation of the repeated operations is strictly conforming to the work manual. And, there is a difference in skill among the operators. Therefore, such reproducibility cannot be guaranteed. Variations in work manuals and differences in skills may not only cause quality problems such as product defects, but may also affect the production line balance of the entire production line. The production line balance is a technical means and method that averages the operation of each station and adjusts the work load so that each operation time becomes as close as possible, and its quality depends on the production efficiency and product quality of the production line. Directly related.

そのため、生産ライン上の各ステーションのオペレータの作業状態を把握することにより、生産ラインバランス情報を取得する必要がある。現在、生産ライン上の各ステーションの作業状態を把握することは、主に、IEエンジニア(産業エンジニアとも呼ばれる)が、手動でストップウオッチによりステーション毎に工数を計測することにより行われている。このような方法では、ステーション上のオペレータによる操作の有無を人手により直観的に観察することができ、ステーション上のオペレータが、複数の動作を含む操作を行う開始時間、終了時間等の情報を記録することができる。   Therefore, it is necessary to acquire the production line balance information by grasping the working state of the operator of each station on the production line. At present, grasping the working state of each station on the production line is mainly performed by an IE engineer (also called an industrial engineer) by manually measuring the man-hours for each station by a stopwatch. With such a method, it is possible to intuitively observe the presence or absence of the operation by the operator on the station, and the operator on the station records the information such as the start time and the end time when the operation including a plurality of operations is performed. can do.

しかしながら、IEエンジニアが手動で記録して生産ラインでの作業状態を把握する方法には、以下の問題がある。人間の目による観察及び手動による操作に依存するため、記録されたデータの正確性が悪くなり、記録されたデータの量は限られる;IEエンジニアは計測する時に、ステーション上のオペレータの心理に影響を与える可能性があり、このような時に行われた操作は通常時の操作を反映することができない;生産ラインのバランスは、IEエンジニアが測定を完了した後に分析処理を行ってこそ得られるため、生産ラインをリアルタイムにモニタリングすることはできない;IEエンジニアにより記録された時間は、有限であるため、生産ラインでの全ての異常操作又は誤操作は、必ずしも記録されるのではなく、それにより製品欠陥が発生した場合に、欠陥原因を確定することが困難であり、製品欠陥を引き起こす原因をタイムリーで効率的に修正することが困難である。   However, the method in which the IE engineer manually records and grasps the working state in the production line has the following problems. The reliance on human eye observation and manual operation reduces the accuracy of the recorded data and limits the amount of recorded data; IE engineers affect the psychology of the operator on the station when measuring And the operations performed at such times cannot reflect normal operations; the balance of the production line can only be obtained after the IE engineer has completed the measurement and performed the analytical process. , It is not possible to monitor the production line in real time; since the time recorded by the IE engineer is finite, not every abnormal operation or misoperation on the production line is necessarily recorded, which results in product defects. When it occurs, it is difficult to determine the cause of the defect, and the cause of the product defect is timely and efficiently. It is difficult to fix to.

従って、入手に頼らずに生産ライン上のオペレータの操作を検出して把握する操作検出装置、操作検出方法及び操作検出システムが切望されている。   Therefore, an operation detection device, an operation detection method, and an operation detection system that detect and grasp an operation of an operator on a production line without relying on the acquisition have been earnestly desired.

中国特許第103745228号明細書Chinese Patent No. 1037542528 中国特許第103793054号明細書Chinese Patent No. 103793054

本発明は、前記従来技術に存在する課題を解決するためになされたものであり、その目的は、人手に頼らずに生産ライン上の各オペレータの操作を正確、リアルタイムに検出することができる操作検出装置、操作検出方法及び操作検出システムを提供することにある。   The present invention has been made to solve the problems existing in the above-mentioned conventional techniques, and an object thereof is an operation capable of accurately and in real time detecting the operation of each operator on a production line without relying on human labor. An object is to provide a detection device, an operation detection method, and an operation detection system.

実施形態による操作検出装置は、対象検出モデル取得部と、対象情報取得部と、検出画像入力部と、操作検出部を備える。前記対象検出モデル取得部は、複数枚のトレーニング画像に基づく対象検出モデルを取得する。前記対象情報取得部は、前記複数枚のトレーニング画像と、前記対象検出モデル取得部により取得された前記対象検出モデルとに基づいて、対象情報を取得する。前記検出画像入力部は、オペレータの操作を検出するための検出画像を入力する。前記操作検出部は、前記対象情報取得部により取得された前記対象情報と、前記検出画像入力部により入力された前記検出画像とに基づいて、前記操作を検出する。   The operation detection device according to the embodiment includes a target detection model acquisition unit, a target information acquisition unit, a detected image input unit, and an operation detection unit. The target detection model acquisition unit acquires a target detection model based on a plurality of training images. The target information acquisition unit acquires target information based on the plurality of training images and the target detection model acquired by the target detection model acquisition unit. The detected image input unit inputs a detected image for detecting an operator's operation. The operation detection unit detects the operation based on the target information acquired by the target information acquisition unit and the detected image input by the detected image input unit.

本発明の第1の実施形態の操作検出装置の構成を示す図である。It is a figure which shows the structure of the operation detection apparatus of the 1st Embodiment of this invention. 本発明の対象がマーキングされた1枚のトレーニング画像を示す図である。It is a figure which shows one training image with which the target of this invention was marked. 第1の実施形態の操作検出装置の動作フローチャートである。It is an operation | movement flowchart of the operation detection apparatus of 1st Embodiment. 本発明の第1の実施形態の実施例1の操作検出部の構成を示す図である。It is a figure which shows the structure of the operation detection part of Example 1 of the 1st Embodiment of this invention. 本発明のイベント生成方法の一例を示す図である。It is a figure which shows an example of the event generation method of this invention. 本発明の対象タイプの詳細の一例を示す図である。It is a figure which shows an example of the detail of the object type of this invention. 本発明の対象タイプの詳細の一例を示す図である。It is a figure which shows an example of the detail of the object type of this invention. 本発明の対象タイプの詳細の一例を示す図である。It is a figure which shows an example of the detail of the object type of this invention. 本発明の対象タイプの詳細の一例を示す図である。It is a figure which shows an example of the detail of the object type of this invention. 本発明のイベントの一例を示す図である。It is a figure which shows an example of the event of this invention. 本発明のイベントに基づいて生成された操作モードの一例を示す図である。It is a figure which shows an example of the operation mode produced | generated based on the event of this invention. 本発明の第1の実施形態の実施例1の操作検出装置の動作フローチャートである。It is an operation | movement flowchart of the operation detection apparatus of Example 1 of the 1st Embodiment of this invention. 本発明の第1の実施形態の実施例1の操作検出装置に係るイベントの一例を示す図である。It is a figure which shows an example of the event which concerns on the operation detection apparatus of Example 1 of the 1st Embodiment of this invention. 本発明の第1の実施形態の実施例2の操作検出部の構成を示す図である。It is a figure which shows the structure of the operation detection part of Example 2 of the 1st Embodiment of this invention. 本発明のイベントに基づいて生成された動作モードの一例を示す図である。It is a figure which shows an example of the operation mode produced | generated based on the event of this invention. 本発明のイベントに基づいて生成された動作モードの一例を示す図である。It is a figure which shows an example of the operation mode produced | generated based on the event of this invention. 本発明のイベントに基づいて生成された動作モードシーケンスの一例を示す図である。It is a figure which shows an example of the operation mode sequence produced | generated based on the event of this invention. 本発明の第1の実施形態の実施例2の操作検出装置の動作フローチヤートである。5 is an operation flow chart of the operation detecting device of the second example of the first exemplary embodiment of the present invention. 本発明の第1の実施形態の実施例2の操作検出装置に係るイベントの一例を示す図である。FIG. 8 is a diagram showing an example of an event related to the operation detection device of Example 2 of the first exemplary embodiment of the present invention. 本発明の第1の実施形態の実施例2の操作検出装置が動作モードに基づいて生成された操作モードの一例を示す図である。FIG. 8 is a diagram showing an example of an operation mode generated by the operation detection device of Example 2 of the first exemplary embodiment of the present invention based on the operation mode. 本発明の第1の実施形態の実施例3の操作検出装置がイベントと動作モードに基づいて生成された操作モードの一例を示す図である。FIG. 8 is a diagram showing an example of an operation mode generated by the operation detection device of Example 3 of the first exemplary embodiment of the present invention based on an event and an operation mode. 本発明の第1の実施形態の実施例3の操作検出装置の動作フローチャートである。7 is an operation flowchart of the operation detection device of Example 3 of the first exemplary embodiment of the present invention. 本発明の第2の実施形態の操作検出装置の構成を示す図である。FIG. 6 is a diagram showing a configuration of an operation detection device according to a second exemplary embodiment of the present invention. 本発明の第2の実施形態の操作検出装置の動作フローチャートである。7 is an operation flowchart of the operation detecting device according to the second embodiment of the present invention. 本発明の操作検出システムの構成を示す図である。It is a figure which shows the structure of the operation detection system of this invention.

以下、図面を参照して、実施形態を説明する。以下の説明は、実施形態の技術的思想を具体化するための装置や方法を例示するものであって、実施形態の技術的思想は、以下に説明する構成要素の構造、形状、配置、材質等に限定されるものではない。当業者が容易に想到し得る変形は、当然に開示の範囲に含まれる。説明をより明確にするため、図面において、各要素のサイズ、厚み、平面寸法又は形状等を実際の実施態様に対して変更して模式的に表す場合もある。複数の図面において、互いの寸法の関係や比率が異なる要素が含まれることもある。複数の図面において、対応する要素には同じ参照数字を付して重複する説明を省略する場合もある。いくつかの要素に複数の呼称を付す場合があるが、これら呼称の例はあくまで例示であり、これらの要素に他の呼称を付すことを否定するものではない。また、複数の呼称が付されていない要素についても、他の呼称を付すことを否定するものではない。なお、以下の説明において、「接続」は直接的な接続のみならず、他の要素を介して間接的に接続されることも意味する。   Hereinafter, embodiments will be described with reference to the drawings. The following description exemplifies a device and a method for embodying the technical idea of the embodiment, and the technical idea of the embodiment is the structure, shape, arrangement, and material of the components described below. It is not limited to the above. Modifications that can be easily conceived by those skilled in the art are naturally included in the scope of the disclosure. In order to make the description clearer, in the drawings, the size, thickness, plane size, shape, or the like of each element may be changed and schematically shown in the actual embodiment. In some drawings, elements having different dimensional relationships and ratios from each other may be included. In a plurality of drawings, corresponding elements may be given the same reference numerals, and redundant description may be omitted. Although some elements may be given a plurality of names, examples of these names are merely examples, and giving other names to these elements is not denied. Further, it is not denied that another name is given to an element to which a plurality of names are not given. In the following description, “connection” means not only direct connection but also indirect connection through other elements.

以下、本発明の操作検出装置、操作検出方法及び操作検出システムについて、図面を参照しながら説明する。   Hereinafter, an operation detection device, an operation detection method, and an operation detection system of the present invention will be described with reference to the drawings.

(第1の実施形態)
(操作検出装置100の構成)
まず、第1の実施形態に係る操作検出装置100の構成について、図1を参照しながら説明する。また、操作検出装置は各種の部品を含み、図1には、第1の実施形態の技術思想に関する部品のみが示されており、その他の部品は省略している。
(First embodiment)
(Configuration of operation detection device 100)
First, the configuration of the operation detection device 100 according to the first embodiment will be described with reference to FIG. Further, the operation detection device includes various parts, and in FIG. 1, only parts related to the technical idea of the first embodiment are shown, and other parts are omitted.

また、操作検出装置は種々の操作を検出するように構成可能であるが、本明細書においては、操作検出装置を電子製品の組立生産ラインに用いて生産ラインにおける各ステーションのオペレータの操業状態を検出することを例として説明する。第1の実施形態の操作検出装置は、生産ラインにおける各ステーションのオペレータの操作を撮像して得られた動画像に基づいて、当該操作を検出する。   Further, although the operation detecting device can be configured to detect various operations, in the present specification, the operation detecting device is used in an assembly production line of electronic products to show the operation state of the operator of each station in the production line. The detection will be described as an example. The operation detection device of the first embodiment detects the operation based on a moving image obtained by imaging the operation of the operator of each station in the production line.

図1に示すように、操作検出装置100は対象検出モデル取得部101、対象情報取得部102、検出画像入力部103及び操作検出部104を備える。   As shown in FIG. 1, the operation detection device 100 includes a target detection model acquisition unit 101, a target information acquisition unit 102, a detected image input unit 103, and an operation detection unit 104.

対象検出モデル取得部101は、複数枚のトレーニング画像に基づいて得られた対象検出モデルを取得するためのものである。   The target detection model acquisition unit 101 is for acquiring a target detection model obtained based on a plurality of training images.

ここでは、対象検出モデル取得部101は、有線又は無線通信を介して当該操作検出装置100の外部装置(図示せず)から対象検出モデルを取得する。   Here, the target detection model acquisition unit 101 acquires the target detection model from an external device (not shown) of the operation detection device 100 via wired or wireless communication.

当該外部装置は、例えば下記の方法を用いて対象検出モデルを生成することができる対象検出モデル生成部材である。外部装置は、生産ラインにおける各ステーションのオペレータの操作を撮像して得られたトレーニング画像群である動画像を処理し、複数枚のトレーニング画像を抽出し、複数枚のトレーニング画像の各トレーニング画像に1つ以上の対象をマーキングする。マーキングの例は例えば図2に示される。1枚のトレーニング画像に「機体」、「手」、「手」という対象がマーキングされる。外部装置は、1つ以上の対象がマーキングされるとともに、時系列情報が含まれた複数枚のトレーニング画像に基づいてディープラーニングを行い、対象検出モデルを生成(トレーニング)する。ここでは、対象検出モデルを生成する方法はディープラーニングを説明したが、これは一例であって、これに限定されるものではない。正確な対象検出モデルを得ることができれば、公知又は将来現れる可能性のある様々な方法を用いることができる。   The external device is a target detection model generation member that can generate a target detection model using, for example, the following method. The external device processes a moving image, which is a training image group obtained by capturing the operation of the operator of each station on the production line, extracts a plurality of training images, and outputs the training images to the training images of the plurality of training images. Mark one or more objects. An example of marking is shown, for example, in FIG. Objects such as "machine", "hand", and "hand" are marked on one training image. The external device performs deep learning based on a plurality of training images including time-series information while marking one or more targets, and generates (trains) a target detection model. Here, the method of generating the target detection model has been described as deep learning, but this is an example, and the present invention is not limited to this. If an accurate object detection model can be obtained, various methods that are known or may appear in the future can be used.

対象情報取得部102は、複数枚のトレーニング画像から対象検出モデル取得部101により取得された対象検出モデルに基づいて、対象情報を取得する。例えばディープラーニングによってトレーニングされた対象検出モデルを複数枚のトレーニング画像に用いることにより、複数枚のトレーニング画像に含まれる対象情報を取得できる。取得できる対象情報は対象検出モデルに関係し、必要な対象情報に基づいて、対象検出モデルを意図的に得ることができる。ここでは、対象情報は、少なくとも対象名称、対象種別、対象位置、及び対象位置等の変化(例えば、移動方向や姿勢)等を含む。   The target information acquisition unit 102 acquires target information from a plurality of training images based on the target detection model acquired by the target detection model acquisition unit 101. For example, by using a target detection model trained by deep learning for a plurality of training images, target information included in a plurality of training images can be acquired. The target information that can be acquired is related to the target detection model, and the target detection model can be intentionally obtained based on the necessary target information. Here, the target information includes at least a target name, a target type, a target position, and a change in the target position (for example, a moving direction or a posture).

検出画像入力部103の一例は、生産ラインにおける各ステーションのオペレータの操作を撮像することにより得られた動画像を、検出画像として入力し得るカメラであってもよい。さらに、検出画像入力部103の例は、生産ラインにおける各ステーションのオペレータの操作を撮像することにより得られた動画像を、有線又は無線通信を介して外部から検出画像として受信し得る、データ受信機能を有する有線又は無線通信モジュール/部品であってもよい。   An example of the detection image input unit 103 may be a camera that can input, as a detection image, a moving image obtained by capturing the operation of the operator of each station on the production line. Further, the example of the detection image input unit 103 is a data receiving device that can receive a moving image obtained by capturing an operation of an operator of each station in a production line as a detection image from outside via wired or wireless communication. It may be a functional wired or wireless communication module / component.

操作検出部104は、対象情報取得部102により取得された対象情報と、検出画像入力部103により入力された検出画像とに基づいて、操作を検出する。ここでは、操作検出部104は、例えば対象情報取得部102により取得された対象情報に基づいて、検出画像に対し例えば画像処理、モード識別等の処理を行うことにより、操作を検出することができる。ここでは、操作とは、生産ラインにおける各ステーションのオペレータが、手又は工具等により、電子製品組立生産ラインにおけるワークピース、部品、容器等に何かを出し入れ、取り付け、位置合わせ、固定等の各種の操作を行うことである。つまり、操作は、対象及びその位置の変化により現れることができる。   The operation detection unit 104 detects an operation based on the target information acquired by the target information acquisition unit 102 and the detected image input by the detected image input unit 103. Here, the operation detection unit 104 can detect an operation, for example, by performing processing such as image processing or mode identification on the detected image based on the target information acquired by the target information acquisition unit 102. . Here, the operation means that the operator of each station in the production line uses a hand, a tool, or the like to put something in or out of a work piece, a component, a container, or the like in the electronic product assembly production line, and attach, position, fix, or otherwise perform various operations. Is to perform the operation. That is, the operation can appear due to changes in the object and its position.

また、前記対象検出モデル取得部101、対象情報取得部102、操作検出部104は異なる部品又はモジュールであるが、これらの一部又は全部をまとめて1つの部品又はモジュールにすることができる。   Further, although the target detection model acquisition unit 101, the target information acquisition unit 102, and the operation detection unit 104 are different components or modules, some or all of them can be combined into one component or module.

(操作検出装置100の動作)
以下、動作フローチャートに基づいて、本発明の第1の実施形態に係る操作検出装置100及びそれが用いる操作検出方法について説明する。
(Operation of the operation detection device 100)
Hereinafter, the operation detection apparatus 100 according to the first embodiment of the present invention and the operation detection method used by the operation detection apparatus 100 will be described based on an operation flowchart.

図3は本発明の第1の実施形態の操作検出装置100の動作フローチャートである。   FIG. 3 is an operation flowchart of the operation detection device 100 according to the first embodiment of this invention.

図3に示すように、ステップS300において,操作検出装置100は対象検出モデル取得部101により、複数枚のトレーニング画像に基づく対象検出モデルを取得する。その後、操作検出装置100の処理はステップS302に進む。   As shown in FIG. 3, in step S300, the operation detection apparatus 100 causes the object detection model acquisition unit 101 to acquire an object detection model based on a plurality of training images. After that, the process of the operation detection device 100 proceeds to step S302.

ステップS302において、操作検出装置100は、対象情報取得部102により、複数枚のトレーニング画像と、対象検出モデル取得部101により取得された対象検出モデルとに基づいて対象情報を取得する。その後、操作検出装置100の処理はステップS304に進む。ここでは、対象名称、対象種別、対象位置、対象位置の変化、及び対象同士の相対位置の変化を含む対象情報を取得するとする。   In step S302, the operation detection apparatus 100 causes the target information acquisition unit 102 to acquire target information based on the plurality of training images and the target detection model acquired by the target detection model acquisition unit 101. After that, the process of the operation detection device 100 proceeds to step S304. Here, it is assumed that the target information including the target name, the target type, the target position, the change in the target position, and the change in the relative position between the targets is acquired.

ステップS304において、操作検出装置100は、検出画像入力部103により、生産ラインにおける各ステーションのオペレータの操作を撮像して得られた動画像を検出画像として入力する。その後、操作検出装置100の処理はステップS306に進む。   In step S304, the operation detection apparatus 100 inputs the moving image obtained by capturing the operation of the operator of each station in the production line as the detected image by the detected image input unit 103. After that, the process of the operation detection device 100 proceeds to step S306.

ステップS306において、操作検出装置100は、操作検出部104により、対象情報取得部102により取得された対象情報と、検出画像入力部103により入力された検出画像とに基づいて、操作を検出する。その後、操作検出装置100の処理は終了する。   In step S306, the operation detection device 100 causes the operation detection unit 104 to detect an operation based on the target information acquired by the target information acquisition unit 102 and the detected image input by the detected image input unit 103. Then, the process of the operation detection device 100 ends.

本実施形態に係る操作検出装置100によれば、生産ラインにおける各ステーションのオペレータの操作を撮像して得られた動画像を用いて操作検出を人手に頼らずに行うことにより、従来技術のようにIEエンジニアが手動で操作観測を行うことにより生じる問題を避けることができる。また、ディープラーニング等の方法に基づく対象検出モデルを用いることにより、検出画像に反映された生産ライン上の各オペレータの操作にかかる対象を正確に検出し、位置決めし、追跡し、かつ当該対象の対象情報を取得することができる。これにより、操作を正確、かつタイムリーで効率的に検出することができ、製品欠陥を予測又は検出するように操作異常をもれなく検出することができ、オペレータを評価するように生産ライン上のオペレータの操作を追跡することができる。また、操作を正確に、タイムリーで検出することにより、当該操作を利用して動画像における特定の動作を検索しかつ位置決めすることができる。これにより、オペレータの操作を分析し評価して生産ラインを改善することに寄与することができる。   According to the operation detection device 100 according to the present embodiment, the operation detection is performed without relying on human hands by using the moving image obtained by capturing the operation of the operator of each station in the production line. In addition, it is possible to avoid the problems caused by the IE engineer performing manual operation observation. Further, by using an object detection model based on a method such as deep learning, the object involved in the operation of each operator on the production line reflected in the detected image is accurately detected, positioned, tracked, and Target information can be acquired. Thereby, the operation can be detected accurately, timely and efficiently, the operation abnormality can be detected without exception so as to predict or detect the product defect, and the operator on the production line to evaluate the operator. The operation of can be tracked. Further, by detecting the operation accurately and in a timely manner, the specific operation in the moving image can be searched for and positioned using the operation. This can contribute to improving the production line by analyzing and evaluating the operation of the operator.

以下、第1の実施形態の操作検出装置100の各実施例について説明する。以下、対応する要素には同じ参照数字を付して重複する説明を省略する。   Hereinafter, each example of the operation detection device 100 of the first exemplary embodiment will be described. Hereinafter, corresponding elements will be denoted by the same reference numerals and redundant description will be omitted.

(実施例1)
以下、本発明の第1の実施形態の操作検出装置100の実施例1について説明する。
(Example 1)
Hereinafter, a first example of the operation detection device 100 according to the first embodiment of the present invention will be described.

実施例1において、操作検出装置100の構造は図1に示した構造と同様に、対象検出モデル取得部101、対象情報取得部102、検出画像入力部103及び操作検出部104を含み、ここではそれらの詳細は繰り返し説明しない。   In the first embodiment, the structure of the operation detection device 100 includes the target detection model acquisition unit 101, the target information acquisition unit 102, the detected image input unit 103, and the operation detection unit 104, in the same manner as the structure shown in FIG. Those details will not be repeated.

また、実施例1における操作検出部104の構造は、図4に示すように、イベント生成手段1041、操作モード生成手段1043及び操作検出手段1045を含む。   Further, the structure of the operation detection unit 104 in the first embodiment includes an event generation unit 1041, an operation mode generation unit 1043, and an operation detection unit 1045, as shown in FIG.

イベント生成手段1041は、対象情報取得部102により取得された対象情報に基づいてイベントを生成する。ここでは、イベントは、対象インタラクション即ち対象位置が変化することにより対象間に関係が生じる、又は対象間で関係が変化することにより発生するイベント、及び対象が画像(撮像視野)に現れる又は消えるというイベントを含む。   The event generation unit 1041 generates an event based on the target information acquired by the target information acquisition unit 102. Here, an event is referred to as an event that occurs when a target interaction, that is, a relationship between targets occurs due to a change in a target position, or an event that occurs when a relationship changes between targets, and that a target appears or disappears in an image (imaging field of view). Including events.

以下、イベントの生成について、電子製品の組立生産ラインを例として説明する。図5には電子製品の組立生産ラインにおけるイベントが生成する方法例が示される。すなわち、総じて言えば、イベントは、対象、対象位置及び対象関係に基づいて生成するものである。   The event generation will be described below by taking an electronic product assembly production line as an example. FIG. 5 shows an example of a method of generating an event in an electronic product assembly and production line. That is, generally speaking, an event is generated based on a target, a target position and a target relationship.

また、対象について、図5に示すように、電子製品の組立生産ラインにおいて、対象タイプは「手」、「容器」、「ワークピース」、「部品」、「工具」であってもよい。ここでは、「手」、「容器」、「ワークピース」、「部品」、「工具」として分類される。対象タイプの分類方法は一例であって、これに限定されるものではなく、生産ラインに係る対象及び/又は実際の必要に応じて他の分類を行うことができる。図6は対象タイプ「容器」の詳細の一例を示す。図7は対象タイプ「ワークピース」の詳細の一例を示す。図8は対象タイプ「部品」の詳細の一例を示す。図9は対象タイプ「工具」の詳細の一例を示す。   As shown in FIG. 5, the target type may be “hand”, “container”, “workpiece”, “part”, or “tool” in the electronic product assembly and production line. Here, it is classified as "hand", "container", "workpiece", "part", and "tool". The object type classification method is an example and is not limited to this, and other classification can be performed according to the object related to the production line and / or the actual need. FIG. 6 shows an example of details of the target type “container”. FIG. 7 shows an example of details of the target type “workpiece”. FIG. 8 shows an example of details of the target type “part”. FIG. 9 shows an example of details of the target type “tool”.

また、図5に示すように、対象関係は、例えば「上」、「下」、「左」、「右」、「中心」であってもよい。   Further, as shown in FIG. 5, the target relationship may be, for example, “top”, “bottom”, “left”, “right”, “center”.

また、対象位置及び対象関係に基づいてイベントを生成し、例えば、上述のような対象、対象位置及び対象関係に基づいて、「前方から品物を取る」、「機体上に操作する」、「ねじ回しを用いる」、「走査ガンを用いる」、「主板上に操作する」等の対象インタラクションを認識し、認識された対象インストラクションから発生したイベントを生成することができる。また、「UsbPCBが現れる」、「主板が現れる」、「主板が消える」、「機体が現れる」等の対象が画像(視野)に現れる又は消えるというイベントを生成することができる。図10には「機体上に操作が取り付けられる−左上」というイベントが示される。図10に示すように、当該イベントのイベントタイプは、「ワークピース上に操作する」ということであり、当該イベントを生成する対象は、「機体」というワークピースであり、「機体上に操作が取り付けられる−左上」というイベントに係る操作の位置は対象位置に相当し、「水平 左部 垂直 上部」であり、このイベントのSOP時間は「不確定」である。ここでは、SOP時間は、「機体上に操作が取り付けられる−左上」というイベントの発生に要する基準時間であり、当該SOP時間は、装置出荷前に予め設定されてもよく、出荷後にユーザによって設定又は調整を行ってもよい。また、図10において、SOP時間は「不確定」であるが、SOP時間は、具体的な時間長さ、例えば1.0秒、2.0秒等であってもよい。   In addition, an event is generated based on the target position and the target relationship, and, for example, based on the target, the target position and the target relationship as described above, “take an item from the front”, “operate on the machine”, “screw” It is possible to recognize a target interaction such as “use a turn”, “use a scanning gun”, “operate on a main plate”, etc., and generate an event generated from the recognized target instruction. Further, it is possible to generate an event that an object such as "UsbPCB appears", "Main board appears", "Main board disappears", "Airframe appears" or the like appears or disappears in the image (field of view). FIG. 10 shows an event "operation is mounted on the aircraft-upper left". As shown in FIG. 10, the event type of the event is “operate on the work piece”, the target for generating the event is the work piece “machine”, and “the operation on the machine is The position of the operation related to the event “attached-upper left” corresponds to the target position, “horizontal left part vertical upper part”, and the SOP time of this event is “indeterminate”. Here, the SOP time is a reference time required for the occurrence of the event "operation is mounted on the aircraft-upper left", and the SOP time may be set before shipment of the device or set by the user after shipment. Alternatively, adjustment may be performed. Further, in FIG. 10, the SOP time is “indeterminate”, but the SOP time may be a specific time length, for example, 1.0 second, 2.0 seconds or the like.

また、操作モード生成手段1043は、イベント生成手段1041により生成されたイベントに基づいて、操作モードを生成する。ここでは、操作モードとは、どのようにイベントにより操作を構成するかということである。また、操作モードの数は1つ以上である。なお、1つのイベントに基づいて操作モードを生成してもよく、1つ以上のイベントに基づいて操作モードを生成してもよい。図11にはイベントに基づいて生成した操作モードの一例が示される。図11に示すように、操作名が「SYS PCBをCOVERに取り付ける」という操作は、2つのイベントに基づいて生成され、番号が「0」のイベント後に、番号が「1」のイベントを行う。図11は一例であって、これに限定されるものではない。   The operation mode generation means 1043 also generates an operation mode based on the event generated by the event generation means 1041. Here, the operation mode is how to configure an operation by an event. Further, the number of operation modes is one or more. The operation mode may be generated based on one event, or the operation mode may be generated based on one or more events. FIG. 11 shows an example of the operation mode generated based on the event. As shown in FIG. 11, the operation with the operation name “attach SYS PCB to COVER” is generated based on two events, and the event with the number “1” is performed after the event with the number “0”. FIG. 11 is an example, and the present invention is not limited to this.

また、操作検出手段1045は、検出画像入力部103により入力された検出画像と、操作モード生成手段1043により生成された操作モードとに基づいて、操作を検出する。例えば検出画像入力部103により入力された検出画像から、操作モード生成手段1043により生成された図11に示すような操作モードに適合する操作が識別された場合、当該操作が検出される。操作モードに基づいて検出画像から操作モードに適合する操作を検出する方法は、例えば従来のモード識別等の技術を応用することができ、ここではその詳細は説明しない。   Further, the operation detection unit 1045 detects an operation based on the detection image input by the detection image input unit 103 and the operation mode generated by the operation mode generation unit 1043. For example, when an operation matching the operation mode generated by the operation mode generation unit 1043 as shown in FIG. 11 is identified from the detection image input by the detection image input unit 103, the operation is detected. As a method of detecting an operation suitable for the operation mode from the detected image based on the operation mode, for example, a technique such as a conventional mode identification can be applied, and details thereof will not be described here.

(実施例1の動作)
以下、実施例1の操作検出装置100が実行する動作である操作検出方法について、図12を参照しながら説明する。また、図12に示すステップS3060、S3062、S3064は操作検出部104の動作であるため、図12に示す動作フローは、図3におけるステップS306の代わりに、ステップS3060、S3062、S3064を用いて得られるものである。
(Operation of Example 1)
Hereinafter, an operation detection method, which is an operation performed by the operation detection apparatus 100 according to the first embodiment, will be described with reference to FIG. Since steps S3060, S3062, and S3064 shown in FIG. 12 are operations of the operation detection unit 104, the operation flow shown in FIG. 12 can be obtained by using steps S3060, S3062, and S3064 instead of step S306 in FIG. It is what is done.

図12に示すように、動作が開始した後、操作検出装置100はステップS300、S302、S304を実行する。操作検出装置100が実行するステップS300、S302、S304の動作は、上述の第1の実施形態に係る図3のステップS300、S302、S304の動作と同一であり、ここではその説明は繰り返えさない。ステップS304において検出画像が入力された後に、操作検出装置100の処理はステップS3060に進む。   As shown in FIG. 12, after the operation is started, the operation detection device 100 executes steps S300, S302, and S304. The operations of steps S300, S302, and S304 executed by the operation detection device 100 are the same as the operations of steps S300, S302, and S304 of FIG. 3 according to the first embodiment described above, and the description thereof will not be repeated here. Absent. After the detection image is input in step S304, the process of the operation detection device 100 proceeds to step S3060.

ステップS3060において、操作検出装置100は、イベント生成手段1041により、ステップS302において対象情報取得部102により取得された対象情報に基づいてイベントを生成する。その後、操作検出装置100の処理はステップS3062に進む。ここでは、イベント生成手段1041は例えば図13に示す2つのイベントを生成するとする。   In step S3060, the operation detection apparatus 100 causes the event generation unit 1041 to generate an event based on the target information acquired by the target information acquisition unit 102 in step S302. After that, the process of the operation detection device 100 proceeds to step S3062. Here, it is assumed that the event generation means 1041 generates two events shown in FIG. 13, for example.

ステップS3062において、操作検出装置100は、操作モード生成手段1043により、ステップS3060においてイベント生成手段1041により生成されたイベント(例えば図13に示すように)に基づいて、操作モードを生成する。その後、操作検出装置100の処理はステップS3064に進む。ここでは、操作モード生成手段1043は図11に示す操作モードを生成するように設けられる。   In step S3062, the operation detection device 100 causes the operation mode generation means 1043 to generate an operation mode based on the event (for example, as shown in FIG. 13) generated by the event generation means 1041 in step S3060. After that, the process of the operation detection apparatus 100 proceeds to step S3064. Here, the operation mode generation means 1043 is provided so as to generate the operation mode shown in FIG.

ステップS3064において、操作検出装置100は操作検出手段1045により、ステップS304において検出画像入力部により入力された検出画像と、ステップS3062において操作モード生成手段1043により生成された操作モード(例えば図11に示すように)とに基づいて、操作を検出する。   In step S3064, the operation detection apparatus 100 causes the operation detection unit 1045 to detect the detection image input by the detection image input unit in step S304, and the operation mode generated in step S3062 by the operation mode generation unit 1043 (for example, shown in FIG. 11). So as to detect the operation based on and.

本実施例に係る操作検出装置100によれば、上述のような第1の実施形態の技術効果を備える。操作検出装置100はディープラーニング等の方法に基づく対象検出モデルを利用し、検出画像に反映される生産ライン上の各オペレータの操作に係る対象を正確に検出し、位置決めして追跡し、当該対象の対象情報を取得することによりイベントを生成することができる。これによりイベントを検出して操作を正確に、タイムリーで効率的に検出することができる。生産ライン上のオペレータによる操作を複数回繰り返す検出に対して、検出効率を向上させることができ、操作を検出するリアルタイム性の向上に寄与することができるので、生産ラインのバランスをリアルタイムに把握して調整することに寄与し、生産率の向上に寄与し、より早く生産ライン上の異常操作を発見することができる。これにより、欠陥製品をタイムリーで効率的に発見し、かつより多くの欠陥製品が製造されるのを避けるようにできるだけ早く調整することができる。   The operation detection device 100 according to the present example has the technical effects of the first embodiment as described above. The operation detection device 100 uses an object detection model based on a method such as deep learning to accurately detect, position, and track the object related to the operation of each operator on the production line that is reflected in the detected image. An event can be generated by acquiring the target information of. As a result, the event can be detected, and the operation can be detected accurately, in a timely and efficient manner. It is possible to improve the detection efficiency against the detection of repeated operations by the operator on the production line and to contribute to the real-time detection of the operations. It is possible to detect the abnormal operation on the production line more quickly, by contributing to the adjustment of the production line and the production rate. This allows defective products to be found in a timely and efficient manner and adjusted as soon as possible to avoid producing more defective products.

(実施例2)
以下、第1の実施形態の操作検出装置100の実施例2について説明する。
(Example 2)
Example 2 of the operation detection device 100 according to the first exemplary embodiment will be described below.

実施例2の操作検出装置100の構造は、図1に示した構造と同様に、対象検出モデル取得部101、対象情報取得部102、検出画像入力部103及び操作検出部104を備え、ここではそれらの詳細は繰り返し説明しない。   The structure of the operation detection device 100 according to the second embodiment includes a target detection model acquisition unit 101, a target information acquisition unit 102, a detected image input unit 103, and an operation detection unit 104, as in the structure shown in FIG. Those details will not be repeated.

また、実施例2における操作検出部104の構成は、図14に示すように、図4に示した実施例1との相違点は、動作モード生成手段1042をさらに備えることにある。   Further, the configuration of the operation detection unit 104 in the second embodiment is different from that of the first embodiment shown in FIG. 4 as shown in FIG. 14 in that an operation mode generation means 1042 is further provided.

動作モード生成手段1042は、イベント生成手段1041により生成されたイベントに基づいて、動作モードを生成する。ここでは、動作モードとは、どのようにイベントにより動作を構成するかということである。また、動作モードの数は、1つ以上であってもよく、複数の動作モードは動作モードシーケンスを構成する。なお、1つのイベントに基づいて動作モードを生成してもよく、1つ以上のイベントであるイベントシーケンスに基づいて動作モードを生成しでもよい。図15及び図16には、それぞれイベントに基づいて生成された動作モードの一例が示されている。図15に示すように、動作名が「走査」の動作は、2つのイベントに基づいて生成され、番号が「0」のイベントの後に、番号が「1」のイベントが行われる。図16に示すように、動作名が「ねじを打って固定する」の動作も同様に2つのイベントに基づいて生成され、番号が「0」のイベントの後に、番号が「1」のイベントが行われる。   The operation mode generation means 1042 generates an operation mode based on the event generated by the event generation means 1041. Here, the operation mode is how to configure an operation by an event. Further, the number of operation modes may be one or more, and the plurality of operation modes form an operation mode sequence. The operation mode may be generated based on one event, or the operation mode may be generated based on an event sequence that is one or more events. 15 and 16 each show an example of an operation mode generated based on an event. As shown in FIG. 15, the action with the action name “scan” is generated based on two events, and the event with the number “1” is performed after the event with the number “0”. As shown in FIG. 16, the action with the action name “screw and fix” is also generated based on two events, and the event with the number “0” is followed by the event with the number “1”. Done.

また、動作モード生成手段1042は、図17に示すような動作モードシーケンスを生成しでもよい。   Further, the operation mode generation means 1042 may generate an operation mode sequence as shown in FIG.

また、実施例2において、操作モード生成手段1043は動作モード生成手段1042により生成された動作モードに基づいて、操作モードを生成する。操作検出手段1045は検出画像入力部103により入力された検出画像と、操作モード生成手段1043により生成された操作モードとに基づいて、操作を検出する。   Further, in the second embodiment, the operation mode generation unit 1043 generates the operation mode based on the operation mode generated by the operation mode generation unit 1042. The operation detection unit 1045 detects an operation based on the detection image input by the detection image input unit 103 and the operation mode generated by the operation mode generation unit 1043.

(実施例2の動作)
以下、実施例2の操作検出装置100が実行する動作である操作検出方法について、図18を参照しながら説明する。また、図18に示すステップS3060、S3061、S3063、S3065は操作検出部104の動作であるため、図18に示す動作フローは、図3におけるステップS306の代わりに、ステップS3060、S3061、S3063、S3065を用いて得られるものである。
(Operation of Example 2)
Hereinafter, an operation detection method, which is an operation performed by the operation detection device 100 according to the second embodiment, will be described with reference to FIG. Since steps S3060, S3061, S3063, and S3065 shown in FIG. 18 are operations of the operation detection unit 104, the operation flow shown in FIG. 18 is different from step S306 in FIG. Is obtained by using.

図18に示すように、動作が開始した後、操作検出装置100はステップS300、S302、S304を実行する。操作検出装置100が実行するステップS300、S302、S304の動作は、上述の第1の実施形態に係る図3のステップS300、S302、S304の動作と同じであり、ここではその説明は繰り返えさない。ステップS304に検出画像が入力された後に、操作検出装置100の処理はステップS3060に進む。   As shown in FIG. 18, after the operation starts, the operation detection device 100 executes steps S300, S302, and S304. The operations of steps S300, S302, and S304 executed by the operation detection device 100 are the same as the operations of steps S300, S302, and S304 of FIG. 3 according to the first embodiment described above, and the description thereof will not be repeated here. Absent. After the detection image is input in step S304, the process of the operation detection device 100 proceeds to step S3060.

ステップS3060において、操作検出装置100はイベント生成手段1041により、ステップS302において対象情報取得部102により取得された対象情報に基づいてイベントを生成する。その後、操作検出装置100の処理はステップS3061に進む。ここでは、イベント生成手段1041は例えば図19に示す4つのイベントを生成するとする。   In step S3060, the operation detection apparatus 100 causes the event generation unit 1041 to generate an event based on the target information acquired by the target information acquisition unit 102 in step S302. After that, the process of the operation detection device 100 proceeds to step S3061. Here, it is assumed that the event generation unit 1041 generates four events shown in FIG. 19, for example.

ステップS3061において、操作検出装置100は動作モード生成手段1042により、ステップS3060においてイベント生成手段1041により生成されたイベント(例えば図19に示す)に基づいて、動作モードを生成する。その後、操作検出装置100の処理はステップS3063に進む。ここでは、動作モード生成手段1042は図15及び図16に示す2つの動作モードを生成するとする。   In step S3061, the operation detection device 100 causes the operation mode generation unit 1042 to generate an operation mode based on the event (for example, shown in FIG. 19) generated by the event generation unit 1041 in step S3060. After that, the process of the operation detection device 100 proceeds to step S3063. Here, the operation mode generation means 1042 is assumed to generate the two operation modes shown in FIGS. 15 and 16.

ステップS3063において、操作検出装置100は操作モード生成手段1043により、ステップS3061において動作モード生成手段1042により生成された動作モード(例えば図15及び図16に示す)に基づいて、操作モードを生成する。その後、操作検出装置100の処理はステップS3065に進む。ここでは、操作モード生成手段1043は図20に示す操作モードを生成するとする。   In step S3063, the operation detection device 100 causes the operation mode generation unit 1043 to generate an operation mode based on the operation mode (for example, shown in FIGS. 15 and 16) generated by the operation mode generation unit 1042 in step S3061. After that, the process of the operation detection device 100 proceeds to step S3065. Here, the operation mode generation means 1043 is assumed to generate the operation mode shown in FIG.

ステップS3065において、操作検出装置100は操作検出手段1045により、ステップS304において検出画像入力部により入力された検出画像と、ステップS3063において操作モード生成手段1043により生成された操作モード(例えば図20に示す)とに基づいて、操作を検出する。   In step S3065, the operation detection apparatus 100 causes the operation detection unit 1045 to detect the detection image input by the detection image input unit in step S304, and the operation mode generated in step S3063 by the operation mode generation unit 1043 (for example, shown in FIG. 20). ) And the operation is detected.

本実施例に係る操作検出装置100によれば、上述のような第1の実施形態及び実施例1の技術効果を備える。なお、ディープラーニング等の方法に基づく対象検出モデルを利用し、検出画像に反映される生産ライン上の各オペレータの操作に係る対象を正確に検出し、位置決めして追跡する。さらに、当該対象の対象情報を取得することによりイベントを生成し、それによりイベントに基づいて動作モードを生成することで、動作モードを検出して操作をタイムリーで、効率的に検出することができる。動作モードはイベントよりもより完全な行為である。このように、生産ライン上のオペレータによる操作を複数回繰り返す検出について、実施例1に比べて、対象を繰り返し検出してイベントを生成する必要がなく、生成された動作モードのみに基づいて、操作を迅速に検出することができる。さらに、検出効率をさらに向上させることができ、操作を検出するリアルタイム性に一層寄与するとともに、生産ラインバランスをよりリアルタイムに把握して調整するのに一層寄与し、生産性の向上に一層寄与し、生産ラインでの異常動作をより早く発見することもできる。これにより欠陥製品をよりタイムリーで効果的に発見し、かつより多くの欠陥製品が製造されるのを避けるようにできるだけ早く調整することができる。   The operation detection device 100 according to the present embodiment has the technical effects of the first embodiment and the first embodiment as described above. It should be noted that an object detection model based on a method such as deep learning is used to accurately detect, position, and track the object related to the operation of each operator on the production line reflected in the detected image. Furthermore, by generating the event by acquiring the target information of the target, and thereby generating the operation mode based on the event, it is possible to detect the operation mode and detect the operation in a timely and efficient manner. it can. Modes of operation are more complete acts than events. As described above, with respect to the detection in which the operation by the operator on the production line is repeated a plurality of times, it is not necessary to repeatedly detect the target and generate the event, as compared with the first embodiment, and the operation is performed based on only the generated operation mode. Can be quickly detected. Furthermore, it is possible to further improve the detection efficiency, further contribute to the real time property of detecting the operation, further contribute to the real time grasp and adjustment of the production line balance, and further contribute to the improvement of the productivity. It is also possible to detect abnormal operation on the production line faster. This allows defective products to be found in a more timely and effective manner and adjusted as soon as possible to avoid producing more defective products.

(実施例3)
以下、第1の実施形態の操作検出装置100の実施例3について説明する。
(Example 3)
Example 3 of the operation detection device 100 according to the first exemplary embodiment will be described below.

実施例3に係る操作検出装置100の構造は実施例2と同一であり、ここではそれらの詳細は繰り返し説明せず、相違点のみについて説明する。   The structure of the operation detection device 100 according to the third embodiment is the same as that of the second embodiment, and the details thereof will not be repeated here and only the differences will be described.

実施例3において、実施例2との相違点は、図14に示す操作モード生成手段1043がイベント生成手段1041により生成されたイベントと、動作モード生成手段1042により生成された動作モードとに基づいて、操作モードを生成するということにある。   The difference between the third embodiment and the second embodiment is that the operation mode generation means 1043 shown in FIG. 14 is based on the event generated by the event generation means 1041 and the operation mode generated by the operation mode generation means 1042. , Is to generate the operation mode.

(実施例3の動作)
図22は、操作検出装置100が実行する実施例3の動作である操作検出方法のフローである。図22において、実施例2の操作検出装置100が実行する動作と同一の動作には同一符号を付け、重複する説明を省略する。
(Operation of Example 3)
FIG. 22 is a flow of the operation detecting method which is the operation of the third embodiment executed by the operation detecting device 100. In FIG. 22, the same operations as the operations performed by the operation detecting device 100 according to the second embodiment are designated by the same reference numerals, and the duplicated description will be omitted.

図22に示すように、実施例2の操作検出装置100の動作フローチャートである図18との相違点は、ステップS3063の代わりにステップS3066を用いることにある。   As shown in FIG. 22, the difference from the operation flowchart of FIG. 18 of the operation detection device 100 of the second embodiment is that step S3066 is used instead of step S3063.

ステップS3066において、操作検出装置100は操作モード生成手段1043により、ステップS3060においてイベント生成手段1041により生成されたイベントと、ステップS3061において動作モード生成手段1042により生成された動作モードとに基づいて、操作モードを生成した後に、ステップS3065に進む。ここでは、図21に示す操作モードを生成するとする。   In step S3066, the operation detection apparatus 100 is operated by the operation mode generation means 1043 based on the event generated by the event generation means 1041 in step S3060 and the operation mode generated by the operation mode generation means 1042 in step S3061. After the mode is generated, the process proceeds to step S3065. Here, it is assumed that the operation mode shown in FIG. 21 is generated.

その後、ステップS3065において、操作検出装置100は操作検出手段1045により、ステップS304において検出画像入力部103により入力された検出画像と、ステップS3063において操作モード生成手段1043により生成された操作モード(例えば図21に示す)とに基づいて、操作を検出する。   Then, in step S3065, the operation detection device 100 causes the operation detection unit 1045 to detect the detection image input by the detection image input unit 103 in step S304, and the operation mode generated in step S3063 by the operation mode generation unit 1043 (for example, in FIG. (Shown in FIG. 21) and the operation is detected.

本実施例に係る操作検出装置100によれば、上述のような第1の実施形態、実施例1及び実施例2の技術効果を備え、ここでは、重複する説明は省略する。   The operation detecting device 100 according to the present embodiment has the technical effects of the first embodiment, the first embodiment, and the second embodiment as described above, and a duplicate description will be omitted here.

(第2の実施形態)
以下、第2の実施形態に係る操作検出装置100Aについて説明する。
(Second embodiment)
Hereinafter, the operation detection device 100A according to the second embodiment will be described.

(操作検出装置100Aの構成)
図23は、第2の実施形態の操作検出装置100Aの構成を示す図である。図23において、第1の実施形態の操作検出装置100の構造を示す図である図1と同一の要素には同一の符号を付け、重複説明を省略する。
(Structure of operation detection device 100A)
FIG. 23 is a diagram showing the configuration of the operation detection device 100A of the second embodiment. In FIG. 23, the same elements as those in FIG. 1, which is a diagram showing the structure of the operation detection device 100 according to the first embodiment, are designated by the same reference numerals, and a duplicate description will be omitted.

第2の実施形態の操作検出装置100Aと、第1の実施形態の操作検出装置100との相違点は、第2の実施形態に係る操作検出装置100Aが操作時間検出部105を備えることにある。   The difference between the operation detection device 100A of the second embodiment and the operation detection device 100 of the first embodiment is that the operation detection device 100A according to the second embodiment includes an operation time detection unit 105. .

操作時間検出部105は操作検出部104により検出された操作に基づいて、操作の開始時間と終了時間を検出する。   The operation time detection unit 105 detects a start time and an end time of the operation based on the operation detected by the operation detection unit 104.

例えば、操作時間検出部105は操作検出部104により検出された操作に基づいて、検出画像に含まれる時間情報により、操作の開始時間と終了時間を特定する。   For example, the operation time detection unit 105 specifies the start time and the end time of the operation based on the operation detected by the operation detection unit 104 based on the time information included in the detected image.

また、操作時間検出部105は、操作検出部104により検出された操作に基づいて、当該操作を生成する操作モードのイベント及び/又は動作モードに含まれる時間情報に応じて、操作の開始時間と終了時間を検出する。   In addition, the operation time detection unit 105, based on the operation detected by the operation detection unit 104, the operation start time and the operation start time according to the time information included in the event and / or the operation mode of the operation mode that generates the operation. Detect the end time.

(操作検出装置100Aの動作)
図24は第2の実施形態の操作検出装置100Aの動作フローチャートである。図24において、第1の実施形態の操作検出装置100が実行する動作である図3に示す動作と同一の動作には同一の符号を付け、重複する説明を省略する。
(Operation of operation detection device 100A)
FIG. 24 is an operation flowchart of the operation detection device 100A of the second embodiment. In FIG. 24, the same operation as the operation shown in FIG. 3, which is the operation performed by the operation detection device 100 according to the first embodiment, is denoted by the same reference numeral, and duplicated description will be omitted.

図24に示すように、第1の実施形態の操作検出装置100が実行する動作である図3に示す動作との相違点は、ステップS300〜ステップS306を実行した後、処理を終了しておらず、ステップS240に進むことである。   As shown in FIG. 24, the difference from the operation shown in FIG. 3, which is the operation performed by the operation detection device 100 of the first embodiment, is that after executing steps S300 to S306, the process should be completed. Instead, the process proceeds to step S240.

ステップS240において、操作時間検出部105は、操作検出部104により検出された操作に基づいて、操作の開始時間と終了時間を検出した後に、処理を終了する。   In step S240, the operation time detection unit 105 detects the start time and end time of the operation based on the operation detected by the operation detection unit 104, and then ends the process.

第2の実施形態に係る操作検出装置100Aによれば、第1の実施形態及び各実施例の技術効果を備えることができ、それに加え、操作を検出した上で、さらに、操作の開始時間と終了時間を検出することができる。従って、例えばIEエンジニアに頼らずに、生産ライン上の各ステーションのオペレータの操作時間の情報をリアルタイムで、正確に、効率的に取得することができ、さらに、生産ラインのバランスをリアルタイム、正確に分析することができ、それにより、生産率と生産ラインに製造される製品の品質とを保証するようにタイムリーで調整することができる。   According to the operation detection device 100A of the second embodiment, the technical effects of the first embodiment and each example can be provided, and in addition to that, after detecting the operation, the operation start time and The end time can be detected. Therefore, for example, without relying on an IE engineer, information on the operation time of the operator of each station on the production line can be obtained in real time, accurately and efficiently, and the balance of the production line can be obtained in real time and accurately. It can be analyzed so that it can be adjusted in a timely manner to guarantee the production rate and the quality of the products manufactured on the production line.

以上、操作検出装置及び操作検出方法の具体的な表現形態について詳述したが、具体的な表現形態はこれに限定されるものではなく、操作検出システム、集積回路、プログラム及びプログラムが記録された媒体等の種々の形態で表現されてもよい。   The specific expression form of the operation detection device and the operation detection method has been described above in detail, but the specific expression form is not limited to this, and the operation detection system, the integrated circuit, the program, and the program are recorded. It may be expressed in various forms such as a medium.

図25は操作検出システムの構成を示す図である。   FIG. 25 is a diagram showing the configuration of the operation detection system.

図25に示すように、操作検出システム1000はトレーニング画像取得装置200、対象検出モデル生成装置300及び操作検出装置100を備える。   As shown in FIG. 25, the operation detection system 1000 includes a training image acquisition device 200, a target detection model generation device 300, and an operation detection device 100.

ここでは、操作検出装置100は上述した操作検出装置100であるため、ここでは、詳細な説明は省略する。また、操作検出システムは、当然ながら操作検出装置100Aを備えることもできる。   Here, since the operation detection device 100 is the above-described operation detection device 100, detailed description thereof will be omitted here. In addition, the operation detection system may of course include the operation detection device 100A.

トレーニング画像取得装置200は、対象が撮像された複数枚のトレーニング画像を取得するためのものである。トレーニング画像取得装置200は、生産ラインにおける各ステーションのオペレータの操作を撮像することにより、動画像を、トレーニング画像として得るカメラであってもよい。さらに、トレーニング画像取得装置200は、有線又は無線通信を介して外部から生産ラインにおける各ステーションのオペレータの操作を撮像することにより動画像をトレーニング画像として得る、データ受信機能を有する有線又は無線通信モジュール/部品であってもよい。   The training image acquisition device 200 is for acquiring a plurality of training images in which an object is imaged. The training image acquisition device 200 may be a camera that captures a moving image as a training image by capturing the operation of the operator of each station in the production line. Further, the training image acquisition device 200 has a data receiving function, which is a wired or wireless communication module having a data receiving function, which obtains a moving image as a training image by externally capturing an operation of an operator of each station in a production line via wired or wireless communication. It may be a component.

対象検出モデル生成装置300は、トレーニング画像取得装置200により取得された複数枚のトレーニング画像に基づいて、対象検出モデルを生成する。対象検出モデル生成装置300は、例えば下記の方法を用いて対象検出モデルを生成することができる。即ち、生産ラインにおける各ステーションのオペレータの操作を撮像して得られたトレーニング画像群である動画像を処理して複数枚のトレーニング画像を抽出し、抽出された複数枚のトレーニング画像をマーキングし、複数枚のトレーニング画像の各トレーニング画像に1つ以上の対象をマーキングした後、当該1つ以上の対象がマーキングされた複数枚の、時系列情報が含まれたトレーニング画像に基づいてディープラーニングを行い、対象検出モデルを生成する(トレーニングする)。ここでは、ディープラーニングにより、対象検出モデルを生成する方法は一例であって、これに限定されるものではなく,正確な対象検出モデルを得ることができれば、公知又は将来現れる可能性のある様々な方法を用いることができる。   The target detection model generation device 300 generates a target detection model based on the plurality of training images acquired by the training image acquisition device 200. The target detection model generation device 300 can generate a target detection model using the following method, for example. That is, a plurality of training images are extracted by processing a moving image that is a training image group obtained by capturing the operation of the operator of each station in the production line, and the extracted training images are marked. After marking one or more targets on each training image of the multiple training images, deep learning is performed based on the training images containing the time-series information, which are marked on the one or more targets. , Generate an object detection model (train). Here, the method of generating an object detection model by deep learning is an example, and the method is not limited to this. If an accurate object detection model can be obtained, various known methods or those that may appear in the future may appear. Any method can be used.

操作検出システムは、含まれた操作検出装置に応じて、対応する操作検出装置の技術的効果を備え、ここでは繰り返し説明しない。   The operation detection system has the technical effect of a corresponding operation detection device, depending on the operation detection device included, and will not be described repeatedly here.

本発明が提供する操作検出装置、操作検出方法及び操作検出システムによれば、生産ライン上の各オペレータの操作を入手に頼らず、正確に、リアルタイムに検出することができ、生産ラインのバランスを調整するように生産ライン上の各オペレータの作業時間情報を正確に検出することができ、製品欠陥を予測又は検出するように操作異常を漏れなく検出することができ、生産ライン上のオペレータの操作に追従することができ、オペレータの操作を分析評価して生産ラインを改善することに寄与する。   According to the operation detection device, the operation detection method, and the operation detection system provided by the present invention, the operation of each operator on the production line can be accurately detected in real time without depending on the acquisition, and the balance of the production line can be improved. It is possible to accurately detect the working time information of each operator on the production line so as to make adjustments, to detect operation abnormalities without fail to predict or detect product defects, and to operate the operator on the production line. Can contribute to improving the production line by analyzing and evaluating the operation of the operator.

(変形例)
以上、各実施形態について説明したが、本発明は前記実施形態、実施例及び変形例に限定されるものではない。例えば、当業者が上述した各実施形態、実施例及び変形例に対して適宜構成要素の追加、削除、設計変更を行ったもの、各実施形態、実施例又は変形例の特徴を適宜組み合わせたものも、本発明の技術的思想に合致する限り本発明の範囲に含まれる。
(Modification)
Although the respective embodiments have been described above, the present invention is not limited to the embodiments, examples, and modified examples. For example, a person skilled in the art appropriately adds or deletes components or changes the design of each of the embodiments, examples, and modified examples described above, and appropriately combines the features of each embodiment, example, or modified example. Also, as long as it matches the technical idea of the present invention, it is included in the scope of the present invention.

例えば第2の実施形態において、第1の実施形態の実施例1〜実施例3を適用して操作を検出してもよい。   For example, in the second embodiment, the operations may be detected by applying Examples 1 to 3 of the first embodiment.

なお、本発明は上記の各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   It should be noted that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements within a range not departing from the gist of the invention in an implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, the constituent elements of different embodiments may be combined appropriately.

100…操作検出装置、101…対象検出モデル取得部、102…対象情報取得部、103…検出画像入力部。 100 ... Operation detection device, 101 ... Target detection model acquisition unit, 102 ... Target information acquisition unit, 103 ... Detected image input unit.

Claims (9)

複数枚のトレーニング画像に基づく対象検出モデルを取得する対象検出モデル取得部と、
前記複数枚のトレーニング画像と、前記対象検出モデル取得部により取得された前記対象検出モデルとに基づいて、対象情報を取得する対象情報取得部と、
オペレータの操作を検出するための検出画像を入力する検出画像入力部と、
前記対象情報取得部により取得された前記対象情報と、前記検出画像入力部により入力された前記検出画像とに基づいて、前記操作を検出する操作検出部と、
を備える操作検出装置。
A target detection model acquisition unit that acquires a target detection model based on a plurality of training images,
A target information acquisition unit that acquires target information based on the plurality of training images and the target detection model acquired by the target detection model acquisition unit,
A detection image input unit for inputting a detection image for detecting the operation of the operator,
An operation detection unit that detects the operation based on the target information acquired by the target information acquisition unit and the detected image input by the detected image input unit,
An operation detection device including.
前記操作検出部は、
前記対象情報取得部により取得された前記対象情報に基づいて、イベントを生成するイベント生成手段と、
前記イベント生成手段により生成された前記イベントに基づいて、操作モードを生成する操作モード生成手段と、
前記検出画像入力部により入力された前記検出画像と、前記操作モード生成手段により生成された前記操作モードとに基づいて、前記操作を検出する操作検出手段と、
を備える請求項1記載の操作検出装置。
The operation detection unit,
Event generating means for generating an event based on the target information acquired by the target information acquiring section;
Operation mode generation means for generating an operation mode based on the event generated by the event generation means,
An operation detection unit that detects the operation based on the detection image input by the detection image input unit and the operation mode generated by the operation mode generation unit,
The operation detection device according to claim 1, further comprising:
前記操作検出部は、
前記対象情報取得部により取得された前記対象情報に基づいて、イベントを生成するイベント生成手段と、
前記イベント生成手段により生成された前記イベントに基づいて、動作モードを生成する動作モード生成手段と、
前記動作モード生成手段により生成された前記動作モードに基づいて、操作モードを生成する操作モード生成手段と、
前記検出画像入力部により入力された前記検出画像と、前記操作モード生成手段により生成された前記操作モードとに基づいて、前記操作を検出する操作検出手段と、
を備える請求項1記載の操作検出装置。
The operation detection unit,
Event generating means for generating an event based on the target information acquired by the target information acquiring section;
Operation mode generation means for generating an operation mode based on the event generated by the event generation means,
Operation mode generation means for generating an operation mode based on the operation mode generated by the operation mode generation means,
An operation detection unit that detects the operation based on the detection image input by the detection image input unit and the operation mode generated by the operation mode generation unit,
The operation detection device according to claim 1, further comprising:
前記操作モード生成手段は、
前記イベント生成手段により生成された前記イベントと、前記動作モード生成手段により生成された前記動作モードとに基づいて、操作モードを生成する請求項3に記載の操作検出装置。
The operation mode generation means,
The operation detection device according to claim 3, wherein an operation mode is generated based on the event generated by the event generation unit and the operation mode generated by the operation mode generation unit.
前記操作検出部により検出された前記操作に基づいて、操作の開始時間と操作の終了時間を検出する操作時間検出部をさらに備える請求項1乃至請求項4の何れか一項記載の操作検出装置。   The operation detection device according to claim 1, further comprising an operation time detection unit that detects an operation start time and an operation end time based on the operation detected by the operation detection unit. . 前記対象情報は、少なくとも対象名称、対象種別、対象位置、及び対象位置の変化を含む請求項1乃至請求項4の何れか一項記載の操作検出装置。   The operation detection device according to claim 1, wherein the target information includes at least a target name, a target type, a target position, and a change in the target position. 前記検出画像は動画像である請求項1乃至請求項4の何れか一項記載の操作検出装置。   The operation detection device according to claim 1, wherein the detected image is a moving image. 対象が撮像された複数枚のトレーニング画像を取得するトレーニング画像取得装置と、
前記トレーニング画像取得装置により取得された複数枚のトレーニング画像に基づいて、対象検出モデルを生成する対象検出モデル生成装置と、
請求項1乃至請求項7のいずれか一項記載の操作検出装置と、
を備える操作検出システム。
A training image acquisition device for acquiring a plurality of training images in which an object is captured;
Based on a plurality of training images acquired by the training image acquisition device, a target detection model generation device for generating a target detection model,
An operation detection device according to any one of claims 1 to 7,
An operation detection system including.
複数枚のトレーニング画像に基づく対象検出モデルを取得する対象検出モデル取得ステップと、
前記複数枚のトレーニング画像と、前記対象検出モデル取得ステップにより取得された前記対象検出モデルとに基づいて、対象情報を取得する対象情報取得ステップと、
オペレータの操作を検出するための検出画像を入力する検出画像入力ステップと、
前記対象情報取得ステップにより取得された前記対象情報と、前記検出画像入力ステップにより入力された前記検出画像とに基づいて、前記操作を検出する操作検出ステップと、
を備える操作検出方法。
A target detection model acquisition step of acquiring a target detection model based on a plurality of training images,
A target information acquisition step of acquiring target information based on the plurality of training images and the target detection model acquired by the target detection model acquisition step;
A detection image input step of inputting a detection image for detecting the operation of the operator,
An operation detection step of detecting the operation based on the target information acquired by the target information acquisition step and the detected image input by the detected image input step;
An operation detection method comprising:
JP2019118627A 2018-10-25 2019-06-26 Operation detection device, operation detection method and operation detection system Active JP6828093B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811249823.2A CN111105109A (en) 2018-10-25 2018-10-25 Operation detection device, operation detection method, and operation detection system
CN201811249823.2 2018-10-25

Publications (2)

Publication Number Publication Date
JP2020068009A true JP2020068009A (en) 2020-04-30
JP6828093B2 JP6828093B2 (en) 2021-02-10

Family

ID=70388533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019118627A Active JP6828093B2 (en) 2018-10-25 2019-06-26 Operation detection device, operation detection method and operation detection system

Country Status (2)

Country Link
JP (1) JP6828093B2 (en)
CN (1) CN111105109A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115511367A (en) * 2022-10-21 2022-12-23 上海数瞳信息科技有限公司 Intelligent quality management system of production line

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014240800A (en) * 2013-06-12 2014-12-25 株式会社ブリヂストン Inspection auxiliary device
JP6330093B1 (en) * 2017-08-21 2018-05-23 ミライアプリ株式会社 Motion determination program, motion determination device, motion determination image generation program, motion determination image generation device
JP6403920B1 (en) * 2017-11-17 2018-10-10 三菱電機株式会社 3D space monitoring device, 3D space monitoring method, and 3D space monitoring program
JP2018165893A (en) * 2017-03-28 2018-10-25 日本電気株式会社 Work support device, work support method, and work support program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014183004A1 (en) * 2013-05-10 2014-11-13 Robert Bosch Gmbh System and method for object and event identification using multiple cameras
WO2016098264A1 (en) * 2014-12-19 2016-06-23 富士通株式会社 Processing method in analysis device, processing program, analysis device, method for setting detection operation, and setting program
JP6672712B2 (en) * 2015-11-04 2020-03-25 日本電気株式会社 Abnormal work detection system and abnormal work detection method
KR101900237B1 (en) * 2017-10-20 2018-09-19 주식회사 삼진엘앤디 On-site judgment method using situation judgment data on acquired images
CN108491759A (en) * 2018-02-10 2018-09-04 合肥迪宏自动化有限公司 A kind of process detection device and its process detection method based on deep learning
CN108681690B (en) * 2018-04-04 2021-09-03 浙江大学 Assembly line personnel standard operation detection system based on deep learning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014240800A (en) * 2013-06-12 2014-12-25 株式会社ブリヂストン Inspection auxiliary device
JP2018165893A (en) * 2017-03-28 2018-10-25 日本電気株式会社 Work support device, work support method, and work support program
JP6330093B1 (en) * 2017-08-21 2018-05-23 ミライアプリ株式会社 Motion determination program, motion determination device, motion determination image generation program, motion determination image generation device
JP6403920B1 (en) * 2017-11-17 2018-10-10 三菱電機株式会社 3D space monitoring device, 3D space monitoring method, and 3D space monitoring program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115511367A (en) * 2022-10-21 2022-12-23 上海数瞳信息科技有限公司 Intelligent quality management system of production line
CN115511367B (en) * 2022-10-21 2023-07-25 上海数瞳信息科技有限公司 Intelligent quality management system of production line

Also Published As

Publication number Publication date
JP6828093B2 (en) 2021-02-10
CN111105109A (en) 2020-05-05

Similar Documents

Publication Publication Date Title
US9187188B2 (en) Assembly inspection system and method
US11449980B2 (en) System and method for combined automatic and manual inspection
US20130010068A1 (en) Augmented reality system
TWI618940B (en) Device and method for detecting blind hole of printed circuit board
CN107305234B (en) Measuring device
US20230110396A1 (en) Layup table for composite fabrication with ai quality control modules
JP2017199263A (en) Failure information acquisition system and failure information acquisition method
JP5371674B2 (en) Test equipment
CN108693839B (en) Intelligent processing modulation system and method
JP6828093B2 (en) Operation detection device, operation detection method and operation detection system
EP2154591B1 (en) Device and method for testing systems with visual output
US20200098102A1 (en) Quality estimation device, quality estimation method, and quality estimation program
JP2023126335A (en) Imaging device and identification method
JP5824550B1 (en) Data management apparatus and data management program
US20240153069A1 (en) Method and arrangement for testing the quality of an object
DE112022004981T5 (en) Display data generation program, display data generation device and display data generation method
JP7181257B2 (en) Cause analysis system and method
JP2009110239A (en) System and method for analysis of working operation
Viharos et al. Vision based, statistical learning system for fault recognition in industrial assembly environment
CN110588167B (en) Method and apparatus for image monitoring
JP2002031605A (en) Defect-confirming apparatus and automatic visual inspection apparatus
Ramler et al. What you see is what you test-augmenting software testing with computer vision
KR102579226B1 (en) Machine vision inspection system for non-circular container production process using deep learning
Schuster et al. How Digital Field Solutions Add Value to Today's Production Processes
US20240303982A1 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210120

R150 Certificate of patent or registration of utility model

Ref document number: 6828093

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150