JP2020068009A - Operation detection device, operation detection method, and operation detection system - Google Patents
Operation detection device, operation detection method, and operation detection system Download PDFInfo
- Publication number
- JP2020068009A JP2020068009A JP2019118627A JP2019118627A JP2020068009A JP 2020068009 A JP2020068009 A JP 2020068009A JP 2019118627 A JP2019118627 A JP 2019118627A JP 2019118627 A JP2019118627 A JP 2019118627A JP 2020068009 A JP2020068009 A JP 2020068009A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- target
- unit
- operation mode
- operation detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 255
- 238000012549 training Methods 0.000 claims abstract description 41
- 230000008859 change Effects 0.000 claims description 5
- 238000004519 manufacturing process Methods 0.000 abstract description 65
- 238000000034 method Methods 0.000 description 41
- 230000008569 process Effects 0.000 description 20
- 238000013135 deep learning Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000007547 defect Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000002950 deficient Effects 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06398—Performance of employee with respect to a job function
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/04—Manufacturing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Educational Administration (AREA)
- Development Economics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Tourism & Hospitality (AREA)
- Marketing (AREA)
- Social Psychology (AREA)
- Game Theory and Decision Science (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Primary Health Care (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Psychiatry (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Manufacturing & Machinery (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明の実施形態は、操作検出装置、操作検出方法及び操作検出システムに関する。 Embodiments of the present invention relate to an operation detection device, an operation detection method, and an operation detection system.
現在、様々な業種において、様々な製品の製造生産又は組立生産の生産ラインが広く用いられている。稼働効率及び生産量を向上させるように、各生産ラインにおいて、各生産単位は、いずれかのセグメントの作業だけを集中的に処理する。通常、工場の需要、製品の複雑さ及び製造や組立の複雑さ等に応じて、生産ラインに複数のステーションを配置することができる。各ステーションでのオペレータは、何れも他のオペレータと異なる操作を手動で繰り返す。オペレータは、1つのステーションでの操作を完了した後に、次のステーションに流れて操作を行い、最後に製造/組立を完了する。 At present, production lines for manufacturing or assembling various products are widely used in various industries. In each production line, each production unit intensively processes the work of either segment so as to improve the operation efficiency and the production amount. Generally, a plurality of stations can be arranged in a production line depending on factory demand, product complexity, manufacturing or assembly complexity, and the like. The operator at each station manually repeats operations different from those of other operators. After completing the operation at one station, the operator flows to the next station to perform the operation and finally completes the manufacturing / assembly.
従って、生産ライン全体の各ステーションでのオペレータの操作は、製品の品質及び生産ライン全体の効率に直接関係する。製品の品質及び生産ライン全体の効率を保証するために、通常は、様々な要因を総合的に考慮して生産ライン全体の各ステーションに、対応する作業工程を設定し、かつ対応する作業マニュアルを備える。作業マニュアルは、通常、作業工程に含まれる複数の動作及び基準時間を含む。しかしながら、実際には、オペレータによる操作は手動による操作であり、かつ操作環境に不安定要因が存在するため、各オペレータにとって、繰り返した複数回の操作が何れも同じであるのを保証することが困難である。さらに、繰り返した複数回の操作の毎回の操作が何れも厳密に作業マニュアルに適合することを確保することが困難である。そして、各オペレータ間にも技能の差が存在する。従って、このような再現性を保証できない。作業マニュアルに対するばらつき及び技能の差は、製品の欠陥等の品質問題を引き起こす可能性があるだけでなく、生産ライン全体の生産ラインバランスに影響を与える可能性もある。生産ラインバランスは、各ステーションの操作を平均化し、作業荷重を調整することにより各操作時間ができるだけ近くなるようにする技術的手段及び方法であり、その良否は生産ラインの生産効率及び製品品質に直接関係する。 Therefore, the operator's operation at each station of the whole production line is directly related to the quality of the product and the efficiency of the whole production line. In order to guarantee the quality of products and the efficiency of the whole production line, it is usual to set various working processes at each station of the whole production line, and to prepare a corresponding work manual, by comprehensively considering various factors. Prepare The work manual usually includes a plurality of actions and reference times included in the work process. However, in reality, the operator's operation is a manual operation, and there are instability factors in the operating environment. Therefore, it is possible to guarantee for each operator that all repeated operations are the same. Have difficulty. Further, it is difficult to ensure that each operation of the repeated operations is strictly conforming to the work manual. And, there is a difference in skill among the operators. Therefore, such reproducibility cannot be guaranteed. Variations in work manuals and differences in skills may not only cause quality problems such as product defects, but may also affect the production line balance of the entire production line. The production line balance is a technical means and method that averages the operation of each station and adjusts the work load so that each operation time becomes as close as possible, and its quality depends on the production efficiency and product quality of the production line. Directly related.
そのため、生産ライン上の各ステーションのオペレータの作業状態を把握することにより、生産ラインバランス情報を取得する必要がある。現在、生産ライン上の各ステーションの作業状態を把握することは、主に、IEエンジニア(産業エンジニアとも呼ばれる)が、手動でストップウオッチによりステーション毎に工数を計測することにより行われている。このような方法では、ステーション上のオペレータによる操作の有無を人手により直観的に観察することができ、ステーション上のオペレータが、複数の動作を含む操作を行う開始時間、終了時間等の情報を記録することができる。 Therefore, it is necessary to acquire the production line balance information by grasping the working state of the operator of each station on the production line. At present, grasping the working state of each station on the production line is mainly performed by an IE engineer (also called an industrial engineer) by manually measuring the man-hours for each station by a stopwatch. With such a method, it is possible to intuitively observe the presence or absence of the operation by the operator on the station, and the operator on the station records the information such as the start time and the end time when the operation including a plurality of operations is performed. can do.
しかしながら、IEエンジニアが手動で記録して生産ラインでの作業状態を把握する方法には、以下の問題がある。人間の目による観察及び手動による操作に依存するため、記録されたデータの正確性が悪くなり、記録されたデータの量は限られる;IEエンジニアは計測する時に、ステーション上のオペレータの心理に影響を与える可能性があり、このような時に行われた操作は通常時の操作を反映することができない;生産ラインのバランスは、IEエンジニアが測定を完了した後に分析処理を行ってこそ得られるため、生産ラインをリアルタイムにモニタリングすることはできない;IEエンジニアにより記録された時間は、有限であるため、生産ラインでの全ての異常操作又は誤操作は、必ずしも記録されるのではなく、それにより製品欠陥が発生した場合に、欠陥原因を確定することが困難であり、製品欠陥を引き起こす原因をタイムリーで効率的に修正することが困難である。 However, the method in which the IE engineer manually records and grasps the working state in the production line has the following problems. The reliance on human eye observation and manual operation reduces the accuracy of the recorded data and limits the amount of recorded data; IE engineers affect the psychology of the operator on the station when measuring And the operations performed at such times cannot reflect normal operations; the balance of the production line can only be obtained after the IE engineer has completed the measurement and performed the analytical process. , It is not possible to monitor the production line in real time; since the time recorded by the IE engineer is finite, not every abnormal operation or misoperation on the production line is necessarily recorded, which results in product defects. When it occurs, it is difficult to determine the cause of the defect, and the cause of the product defect is timely and efficiently. It is difficult to fix to.
従って、入手に頼らずに生産ライン上のオペレータの操作を検出して把握する操作検出装置、操作検出方法及び操作検出システムが切望されている。 Therefore, an operation detection device, an operation detection method, and an operation detection system that detect and grasp an operation of an operator on a production line without relying on the acquisition have been earnestly desired.
本発明は、前記従来技術に存在する課題を解決するためになされたものであり、その目的は、人手に頼らずに生産ライン上の各オペレータの操作を正確、リアルタイムに検出することができる操作検出装置、操作検出方法及び操作検出システムを提供することにある。 The present invention has been made to solve the problems existing in the above-mentioned conventional techniques, and an object thereof is an operation capable of accurately and in real time detecting the operation of each operator on a production line without relying on human labor. An object is to provide a detection device, an operation detection method, and an operation detection system.
実施形態による操作検出装置は、対象検出モデル取得部と、対象情報取得部と、検出画像入力部と、操作検出部を備える。前記対象検出モデル取得部は、複数枚のトレーニング画像に基づく対象検出モデルを取得する。前記対象情報取得部は、前記複数枚のトレーニング画像と、前記対象検出モデル取得部により取得された前記対象検出モデルとに基づいて、対象情報を取得する。前記検出画像入力部は、オペレータの操作を検出するための検出画像を入力する。前記操作検出部は、前記対象情報取得部により取得された前記対象情報と、前記検出画像入力部により入力された前記検出画像とに基づいて、前記操作を検出する。 The operation detection device according to the embodiment includes a target detection model acquisition unit, a target information acquisition unit, a detected image input unit, and an operation detection unit. The target detection model acquisition unit acquires a target detection model based on a plurality of training images. The target information acquisition unit acquires target information based on the plurality of training images and the target detection model acquired by the target detection model acquisition unit. The detected image input unit inputs a detected image for detecting an operator's operation. The operation detection unit detects the operation based on the target information acquired by the target information acquisition unit and the detected image input by the detected image input unit.
以下、図面を参照して、実施形態を説明する。以下の説明は、実施形態の技術的思想を具体化するための装置や方法を例示するものであって、実施形態の技術的思想は、以下に説明する構成要素の構造、形状、配置、材質等に限定されるものではない。当業者が容易に想到し得る変形は、当然に開示の範囲に含まれる。説明をより明確にするため、図面において、各要素のサイズ、厚み、平面寸法又は形状等を実際の実施態様に対して変更して模式的に表す場合もある。複数の図面において、互いの寸法の関係や比率が異なる要素が含まれることもある。複数の図面において、対応する要素には同じ参照数字を付して重複する説明を省略する場合もある。いくつかの要素に複数の呼称を付す場合があるが、これら呼称の例はあくまで例示であり、これらの要素に他の呼称を付すことを否定するものではない。また、複数の呼称が付されていない要素についても、他の呼称を付すことを否定するものではない。なお、以下の説明において、「接続」は直接的な接続のみならず、他の要素を介して間接的に接続されることも意味する。 Hereinafter, embodiments will be described with reference to the drawings. The following description exemplifies a device and a method for embodying the technical idea of the embodiment, and the technical idea of the embodiment is the structure, shape, arrangement, and material of the components described below. It is not limited to the above. Modifications that can be easily conceived by those skilled in the art are naturally included in the scope of the disclosure. In order to make the description clearer, in the drawings, the size, thickness, plane size, shape, or the like of each element may be changed and schematically shown in the actual embodiment. In some drawings, elements having different dimensional relationships and ratios from each other may be included. In a plurality of drawings, corresponding elements may be given the same reference numerals, and redundant description may be omitted. Although some elements may be given a plurality of names, examples of these names are merely examples, and giving other names to these elements is not denied. Further, it is not denied that another name is given to an element to which a plurality of names are not given. In the following description, “connection” means not only direct connection but also indirect connection through other elements.
以下、本発明の操作検出装置、操作検出方法及び操作検出システムについて、図面を参照しながら説明する。 Hereinafter, an operation detection device, an operation detection method, and an operation detection system of the present invention will be described with reference to the drawings.
(第1の実施形態)
(操作検出装置100の構成)
まず、第1の実施形態に係る操作検出装置100の構成について、図1を参照しながら説明する。また、操作検出装置は各種の部品を含み、図1には、第1の実施形態の技術思想に関する部品のみが示されており、その他の部品は省略している。
(First embodiment)
(Configuration of operation detection device 100)
First, the configuration of the
また、操作検出装置は種々の操作を検出するように構成可能であるが、本明細書においては、操作検出装置を電子製品の組立生産ラインに用いて生産ラインにおける各ステーションのオペレータの操業状態を検出することを例として説明する。第1の実施形態の操作検出装置は、生産ラインにおける各ステーションのオペレータの操作を撮像して得られた動画像に基づいて、当該操作を検出する。 Further, although the operation detecting device can be configured to detect various operations, in the present specification, the operation detecting device is used in an assembly production line of electronic products to show the operation state of the operator of each station in the production line. The detection will be described as an example. The operation detection device of the first embodiment detects the operation based on a moving image obtained by imaging the operation of the operator of each station in the production line.
図1に示すように、操作検出装置100は対象検出モデル取得部101、対象情報取得部102、検出画像入力部103及び操作検出部104を備える。
As shown in FIG. 1, the
対象検出モデル取得部101は、複数枚のトレーニング画像に基づいて得られた対象検出モデルを取得するためのものである。
The target detection
ここでは、対象検出モデル取得部101は、有線又は無線通信を介して当該操作検出装置100の外部装置(図示せず)から対象検出モデルを取得する。
Here, the target detection
当該外部装置は、例えば下記の方法を用いて対象検出モデルを生成することができる対象検出モデル生成部材である。外部装置は、生産ラインにおける各ステーションのオペレータの操作を撮像して得られたトレーニング画像群である動画像を処理し、複数枚のトレーニング画像を抽出し、複数枚のトレーニング画像の各トレーニング画像に1つ以上の対象をマーキングする。マーキングの例は例えば図2に示される。1枚のトレーニング画像に「機体」、「手」、「手」という対象がマーキングされる。外部装置は、1つ以上の対象がマーキングされるとともに、時系列情報が含まれた複数枚のトレーニング画像に基づいてディープラーニングを行い、対象検出モデルを生成(トレーニング)する。ここでは、対象検出モデルを生成する方法はディープラーニングを説明したが、これは一例であって、これに限定されるものではない。正確な対象検出モデルを得ることができれば、公知又は将来現れる可能性のある様々な方法を用いることができる。 The external device is a target detection model generation member that can generate a target detection model using, for example, the following method. The external device processes a moving image, which is a training image group obtained by capturing the operation of the operator of each station on the production line, extracts a plurality of training images, and outputs the training images to the training images of the plurality of training images. Mark one or more objects. An example of marking is shown, for example, in FIG. Objects such as "machine", "hand", and "hand" are marked on one training image. The external device performs deep learning based on a plurality of training images including time-series information while marking one or more targets, and generates (trains) a target detection model. Here, the method of generating the target detection model has been described as deep learning, but this is an example, and the present invention is not limited to this. If an accurate object detection model can be obtained, various methods that are known or may appear in the future can be used.
対象情報取得部102は、複数枚のトレーニング画像から対象検出モデル取得部101により取得された対象検出モデルに基づいて、対象情報を取得する。例えばディープラーニングによってトレーニングされた対象検出モデルを複数枚のトレーニング画像に用いることにより、複数枚のトレーニング画像に含まれる対象情報を取得できる。取得できる対象情報は対象検出モデルに関係し、必要な対象情報に基づいて、対象検出モデルを意図的に得ることができる。ここでは、対象情報は、少なくとも対象名称、対象種別、対象位置、及び対象位置等の変化(例えば、移動方向や姿勢)等を含む。
The target
検出画像入力部103の一例は、生産ラインにおける各ステーションのオペレータの操作を撮像することにより得られた動画像を、検出画像として入力し得るカメラであってもよい。さらに、検出画像入力部103の例は、生産ラインにおける各ステーションのオペレータの操作を撮像することにより得られた動画像を、有線又は無線通信を介して外部から検出画像として受信し得る、データ受信機能を有する有線又は無線通信モジュール/部品であってもよい。
An example of the detection
操作検出部104は、対象情報取得部102により取得された対象情報と、検出画像入力部103により入力された検出画像とに基づいて、操作を検出する。ここでは、操作検出部104は、例えば対象情報取得部102により取得された対象情報に基づいて、検出画像に対し例えば画像処理、モード識別等の処理を行うことにより、操作を検出することができる。ここでは、操作とは、生産ラインにおける各ステーションのオペレータが、手又は工具等により、電子製品組立生産ラインにおけるワークピース、部品、容器等に何かを出し入れ、取り付け、位置合わせ、固定等の各種の操作を行うことである。つまり、操作は、対象及びその位置の変化により現れることができる。
The
また、前記対象検出モデル取得部101、対象情報取得部102、操作検出部104は異なる部品又はモジュールであるが、これらの一部又は全部をまとめて1つの部品又はモジュールにすることができる。
Further, although the target detection
(操作検出装置100の動作)
以下、動作フローチャートに基づいて、本発明の第1の実施形態に係る操作検出装置100及びそれが用いる操作検出方法について説明する。
(Operation of the operation detection device 100)
Hereinafter, the
図3は本発明の第1の実施形態の操作検出装置100の動作フローチャートである。
FIG. 3 is an operation flowchart of the
図3に示すように、ステップS300において,操作検出装置100は対象検出モデル取得部101により、複数枚のトレーニング画像に基づく対象検出モデルを取得する。その後、操作検出装置100の処理はステップS302に進む。
As shown in FIG. 3, in step S300, the
ステップS302において、操作検出装置100は、対象情報取得部102により、複数枚のトレーニング画像と、対象検出モデル取得部101により取得された対象検出モデルとに基づいて対象情報を取得する。その後、操作検出装置100の処理はステップS304に進む。ここでは、対象名称、対象種別、対象位置、対象位置の変化、及び対象同士の相対位置の変化を含む対象情報を取得するとする。
In step S302, the
ステップS304において、操作検出装置100は、検出画像入力部103により、生産ラインにおける各ステーションのオペレータの操作を撮像して得られた動画像を検出画像として入力する。その後、操作検出装置100の処理はステップS306に進む。
In step S304, the
ステップS306において、操作検出装置100は、操作検出部104により、対象情報取得部102により取得された対象情報と、検出画像入力部103により入力された検出画像とに基づいて、操作を検出する。その後、操作検出装置100の処理は終了する。
In step S306, the
本実施形態に係る操作検出装置100によれば、生産ラインにおける各ステーションのオペレータの操作を撮像して得られた動画像を用いて操作検出を人手に頼らずに行うことにより、従来技術のようにIEエンジニアが手動で操作観測を行うことにより生じる問題を避けることができる。また、ディープラーニング等の方法に基づく対象検出モデルを用いることにより、検出画像に反映された生産ライン上の各オペレータの操作にかかる対象を正確に検出し、位置決めし、追跡し、かつ当該対象の対象情報を取得することができる。これにより、操作を正確、かつタイムリーで効率的に検出することができ、製品欠陥を予測又は検出するように操作異常をもれなく検出することができ、オペレータを評価するように生産ライン上のオペレータの操作を追跡することができる。また、操作を正確に、タイムリーで検出することにより、当該操作を利用して動画像における特定の動作を検索しかつ位置決めすることができる。これにより、オペレータの操作を分析し評価して生産ラインを改善することに寄与することができる。
According to the
以下、第1の実施形態の操作検出装置100の各実施例について説明する。以下、対応する要素には同じ参照数字を付して重複する説明を省略する。
Hereinafter, each example of the
(実施例1)
以下、本発明の第1の実施形態の操作検出装置100の実施例1について説明する。
(Example 1)
Hereinafter, a first example of the
実施例1において、操作検出装置100の構造は図1に示した構造と同様に、対象検出モデル取得部101、対象情報取得部102、検出画像入力部103及び操作検出部104を含み、ここではそれらの詳細は繰り返し説明しない。
In the first embodiment, the structure of the
また、実施例1における操作検出部104の構造は、図4に示すように、イベント生成手段1041、操作モード生成手段1043及び操作検出手段1045を含む。
Further, the structure of the
イベント生成手段1041は、対象情報取得部102により取得された対象情報に基づいてイベントを生成する。ここでは、イベントは、対象インタラクション即ち対象位置が変化することにより対象間に関係が生じる、又は対象間で関係が変化することにより発生するイベント、及び対象が画像(撮像視野)に現れる又は消えるというイベントを含む。
The
以下、イベントの生成について、電子製品の組立生産ラインを例として説明する。図5には電子製品の組立生産ラインにおけるイベントが生成する方法例が示される。すなわち、総じて言えば、イベントは、対象、対象位置及び対象関係に基づいて生成するものである。 The event generation will be described below by taking an electronic product assembly production line as an example. FIG. 5 shows an example of a method of generating an event in an electronic product assembly and production line. That is, generally speaking, an event is generated based on a target, a target position and a target relationship.
また、対象について、図5に示すように、電子製品の組立生産ラインにおいて、対象タイプは「手」、「容器」、「ワークピース」、「部品」、「工具」であってもよい。ここでは、「手」、「容器」、「ワークピース」、「部品」、「工具」として分類される。対象タイプの分類方法は一例であって、これに限定されるものではなく、生産ラインに係る対象及び/又は実際の必要に応じて他の分類を行うことができる。図6は対象タイプ「容器」の詳細の一例を示す。図7は対象タイプ「ワークピース」の詳細の一例を示す。図8は対象タイプ「部品」の詳細の一例を示す。図9は対象タイプ「工具」の詳細の一例を示す。 As shown in FIG. 5, the target type may be “hand”, “container”, “workpiece”, “part”, or “tool” in the electronic product assembly and production line. Here, it is classified as "hand", "container", "workpiece", "part", and "tool". The object type classification method is an example and is not limited to this, and other classification can be performed according to the object related to the production line and / or the actual need. FIG. 6 shows an example of details of the target type “container”. FIG. 7 shows an example of details of the target type “workpiece”. FIG. 8 shows an example of details of the target type “part”. FIG. 9 shows an example of details of the target type “tool”.
また、図5に示すように、対象関係は、例えば「上」、「下」、「左」、「右」、「中心」であってもよい。 Further, as shown in FIG. 5, the target relationship may be, for example, “top”, “bottom”, “left”, “right”, “center”.
また、対象位置及び対象関係に基づいてイベントを生成し、例えば、上述のような対象、対象位置及び対象関係に基づいて、「前方から品物を取る」、「機体上に操作する」、「ねじ回しを用いる」、「走査ガンを用いる」、「主板上に操作する」等の対象インタラクションを認識し、認識された対象インストラクションから発生したイベントを生成することができる。また、「UsbPCBが現れる」、「主板が現れる」、「主板が消える」、「機体が現れる」等の対象が画像(視野)に現れる又は消えるというイベントを生成することができる。図10には「機体上に操作が取り付けられる−左上」というイベントが示される。図10に示すように、当該イベントのイベントタイプは、「ワークピース上に操作する」ということであり、当該イベントを生成する対象は、「機体」というワークピースであり、「機体上に操作が取り付けられる−左上」というイベントに係る操作の位置は対象位置に相当し、「水平 左部 垂直 上部」であり、このイベントのSOP時間は「不確定」である。ここでは、SOP時間は、「機体上に操作が取り付けられる−左上」というイベントの発生に要する基準時間であり、当該SOP時間は、装置出荷前に予め設定されてもよく、出荷後にユーザによって設定又は調整を行ってもよい。また、図10において、SOP時間は「不確定」であるが、SOP時間は、具体的な時間長さ、例えば1.0秒、2.0秒等であってもよい。 In addition, an event is generated based on the target position and the target relationship, and, for example, based on the target, the target position and the target relationship as described above, “take an item from the front”, “operate on the machine”, “screw” It is possible to recognize a target interaction such as “use a turn”, “use a scanning gun”, “operate on a main plate”, etc., and generate an event generated from the recognized target instruction. Further, it is possible to generate an event that an object such as "UsbPCB appears", "Main board appears", "Main board disappears", "Airframe appears" or the like appears or disappears in the image (field of view). FIG. 10 shows an event "operation is mounted on the aircraft-upper left". As shown in FIG. 10, the event type of the event is “operate on the work piece”, the target for generating the event is the work piece “machine”, and “the operation on the machine is The position of the operation related to the event “attached-upper left” corresponds to the target position, “horizontal left part vertical upper part”, and the SOP time of this event is “indeterminate”. Here, the SOP time is a reference time required for the occurrence of the event "operation is mounted on the aircraft-upper left", and the SOP time may be set before shipment of the device or set by the user after shipment. Alternatively, adjustment may be performed. Further, in FIG. 10, the SOP time is “indeterminate”, but the SOP time may be a specific time length, for example, 1.0 second, 2.0 seconds or the like.
また、操作モード生成手段1043は、イベント生成手段1041により生成されたイベントに基づいて、操作モードを生成する。ここでは、操作モードとは、どのようにイベントにより操作を構成するかということである。また、操作モードの数は1つ以上である。なお、1つのイベントに基づいて操作モードを生成してもよく、1つ以上のイベントに基づいて操作モードを生成してもよい。図11にはイベントに基づいて生成した操作モードの一例が示される。図11に示すように、操作名が「SYS PCBをCOVERに取り付ける」という操作は、2つのイベントに基づいて生成され、番号が「0」のイベント後に、番号が「1」のイベントを行う。図11は一例であって、これに限定されるものではない。 The operation mode generation means 1043 also generates an operation mode based on the event generated by the event generation means 1041. Here, the operation mode is how to configure an operation by an event. Further, the number of operation modes is one or more. The operation mode may be generated based on one event, or the operation mode may be generated based on one or more events. FIG. 11 shows an example of the operation mode generated based on the event. As shown in FIG. 11, the operation with the operation name “attach SYS PCB to COVER” is generated based on two events, and the event with the number “1” is performed after the event with the number “0”. FIG. 11 is an example, and the present invention is not limited to this.
また、操作検出手段1045は、検出画像入力部103により入力された検出画像と、操作モード生成手段1043により生成された操作モードとに基づいて、操作を検出する。例えば検出画像入力部103により入力された検出画像から、操作モード生成手段1043により生成された図11に示すような操作モードに適合する操作が識別された場合、当該操作が検出される。操作モードに基づいて検出画像から操作モードに適合する操作を検出する方法は、例えば従来のモード識別等の技術を応用することができ、ここではその詳細は説明しない。
Further, the
(実施例1の動作)
以下、実施例1の操作検出装置100が実行する動作である操作検出方法について、図12を参照しながら説明する。また、図12に示すステップS3060、S3062、S3064は操作検出部104の動作であるため、図12に示す動作フローは、図3におけるステップS306の代わりに、ステップS3060、S3062、S3064を用いて得られるものである。
(Operation of Example 1)
Hereinafter, an operation detection method, which is an operation performed by the
図12に示すように、動作が開始した後、操作検出装置100はステップS300、S302、S304を実行する。操作検出装置100が実行するステップS300、S302、S304の動作は、上述の第1の実施形態に係る図3のステップS300、S302、S304の動作と同一であり、ここではその説明は繰り返えさない。ステップS304において検出画像が入力された後に、操作検出装置100の処理はステップS3060に進む。
As shown in FIG. 12, after the operation is started, the
ステップS3060において、操作検出装置100は、イベント生成手段1041により、ステップS302において対象情報取得部102により取得された対象情報に基づいてイベントを生成する。その後、操作検出装置100の処理はステップS3062に進む。ここでは、イベント生成手段1041は例えば図13に示す2つのイベントを生成するとする。
In step S3060, the
ステップS3062において、操作検出装置100は、操作モード生成手段1043により、ステップS3060においてイベント生成手段1041により生成されたイベント(例えば図13に示すように)に基づいて、操作モードを生成する。その後、操作検出装置100の処理はステップS3064に進む。ここでは、操作モード生成手段1043は図11に示す操作モードを生成するように設けられる。
In step S3062, the
ステップS3064において、操作検出装置100は操作検出手段1045により、ステップS304において検出画像入力部により入力された検出画像と、ステップS3062において操作モード生成手段1043により生成された操作モード(例えば図11に示すように)とに基づいて、操作を検出する。
In step S3064, the
本実施例に係る操作検出装置100によれば、上述のような第1の実施形態の技術効果を備える。操作検出装置100はディープラーニング等の方法に基づく対象検出モデルを利用し、検出画像に反映される生産ライン上の各オペレータの操作に係る対象を正確に検出し、位置決めして追跡し、当該対象の対象情報を取得することによりイベントを生成することができる。これによりイベントを検出して操作を正確に、タイムリーで効率的に検出することができる。生産ライン上のオペレータによる操作を複数回繰り返す検出に対して、検出効率を向上させることができ、操作を検出するリアルタイム性の向上に寄与することができるので、生産ラインのバランスをリアルタイムに把握して調整することに寄与し、生産率の向上に寄与し、より早く生産ライン上の異常操作を発見することができる。これにより、欠陥製品をタイムリーで効率的に発見し、かつより多くの欠陥製品が製造されるのを避けるようにできるだけ早く調整することができる。
The
(実施例2)
以下、第1の実施形態の操作検出装置100の実施例2について説明する。
(Example 2)
Example 2 of the
実施例2の操作検出装置100の構造は、図1に示した構造と同様に、対象検出モデル取得部101、対象情報取得部102、検出画像入力部103及び操作検出部104を備え、ここではそれらの詳細は繰り返し説明しない。
The structure of the
また、実施例2における操作検出部104の構成は、図14に示すように、図4に示した実施例1との相違点は、動作モード生成手段1042をさらに備えることにある。
Further, the configuration of the
動作モード生成手段1042は、イベント生成手段1041により生成されたイベントに基づいて、動作モードを生成する。ここでは、動作モードとは、どのようにイベントにより動作を構成するかということである。また、動作モードの数は、1つ以上であってもよく、複数の動作モードは動作モードシーケンスを構成する。なお、1つのイベントに基づいて動作モードを生成してもよく、1つ以上のイベントであるイベントシーケンスに基づいて動作モードを生成しでもよい。図15及び図16には、それぞれイベントに基づいて生成された動作モードの一例が示されている。図15に示すように、動作名が「走査」の動作は、2つのイベントに基づいて生成され、番号が「0」のイベントの後に、番号が「1」のイベントが行われる。図16に示すように、動作名が「ねじを打って固定する」の動作も同様に2つのイベントに基づいて生成され、番号が「0」のイベントの後に、番号が「1」のイベントが行われる。 The operation mode generation means 1042 generates an operation mode based on the event generated by the event generation means 1041. Here, the operation mode is how to configure an operation by an event. Further, the number of operation modes may be one or more, and the plurality of operation modes form an operation mode sequence. The operation mode may be generated based on one event, or the operation mode may be generated based on an event sequence that is one or more events. 15 and 16 each show an example of an operation mode generated based on an event. As shown in FIG. 15, the action with the action name “scan” is generated based on two events, and the event with the number “1” is performed after the event with the number “0”. As shown in FIG. 16, the action with the action name “screw and fix” is also generated based on two events, and the event with the number “0” is followed by the event with the number “1”. Done.
また、動作モード生成手段1042は、図17に示すような動作モードシーケンスを生成しでもよい。 Further, the operation mode generation means 1042 may generate an operation mode sequence as shown in FIG.
また、実施例2において、操作モード生成手段1043は動作モード生成手段1042により生成された動作モードに基づいて、操作モードを生成する。操作検出手段1045は検出画像入力部103により入力された検出画像と、操作モード生成手段1043により生成された操作モードとに基づいて、操作を検出する。
Further, in the second embodiment, the operation
(実施例2の動作)
以下、実施例2の操作検出装置100が実行する動作である操作検出方法について、図18を参照しながら説明する。また、図18に示すステップS3060、S3061、S3063、S3065は操作検出部104の動作であるため、図18に示す動作フローは、図3におけるステップS306の代わりに、ステップS3060、S3061、S3063、S3065を用いて得られるものである。
(Operation of Example 2)
Hereinafter, an operation detection method, which is an operation performed by the
図18に示すように、動作が開始した後、操作検出装置100はステップS300、S302、S304を実行する。操作検出装置100が実行するステップS300、S302、S304の動作は、上述の第1の実施形態に係る図3のステップS300、S302、S304の動作と同じであり、ここではその説明は繰り返えさない。ステップS304に検出画像が入力された後に、操作検出装置100の処理はステップS3060に進む。
As shown in FIG. 18, after the operation starts, the
ステップS3060において、操作検出装置100はイベント生成手段1041により、ステップS302において対象情報取得部102により取得された対象情報に基づいてイベントを生成する。その後、操作検出装置100の処理はステップS3061に進む。ここでは、イベント生成手段1041は例えば図19に示す4つのイベントを生成するとする。
In step S3060, the
ステップS3061において、操作検出装置100は動作モード生成手段1042により、ステップS3060においてイベント生成手段1041により生成されたイベント(例えば図19に示す)に基づいて、動作モードを生成する。その後、操作検出装置100の処理はステップS3063に進む。ここでは、動作モード生成手段1042は図15及び図16に示す2つの動作モードを生成するとする。
In step S3061, the
ステップS3063において、操作検出装置100は操作モード生成手段1043により、ステップS3061において動作モード生成手段1042により生成された動作モード(例えば図15及び図16に示す)に基づいて、操作モードを生成する。その後、操作検出装置100の処理はステップS3065に進む。ここでは、操作モード生成手段1043は図20に示す操作モードを生成するとする。
In step S3063, the
ステップS3065において、操作検出装置100は操作検出手段1045により、ステップS304において検出画像入力部により入力された検出画像と、ステップS3063において操作モード生成手段1043により生成された操作モード(例えば図20に示す)とに基づいて、操作を検出する。
In step S3065, the
本実施例に係る操作検出装置100によれば、上述のような第1の実施形態及び実施例1の技術効果を備える。なお、ディープラーニング等の方法に基づく対象検出モデルを利用し、検出画像に反映される生産ライン上の各オペレータの操作に係る対象を正確に検出し、位置決めして追跡する。さらに、当該対象の対象情報を取得することによりイベントを生成し、それによりイベントに基づいて動作モードを生成することで、動作モードを検出して操作をタイムリーで、効率的に検出することができる。動作モードはイベントよりもより完全な行為である。このように、生産ライン上のオペレータによる操作を複数回繰り返す検出について、実施例1に比べて、対象を繰り返し検出してイベントを生成する必要がなく、生成された動作モードのみに基づいて、操作を迅速に検出することができる。さらに、検出効率をさらに向上させることができ、操作を検出するリアルタイム性に一層寄与するとともに、生産ラインバランスをよりリアルタイムに把握して調整するのに一層寄与し、生産性の向上に一層寄与し、生産ラインでの異常動作をより早く発見することもできる。これにより欠陥製品をよりタイムリーで効果的に発見し、かつより多くの欠陥製品が製造されるのを避けるようにできるだけ早く調整することができる。
The
(実施例3)
以下、第1の実施形態の操作検出装置100の実施例3について説明する。
(Example 3)
Example 3 of the
実施例3に係る操作検出装置100の構造は実施例2と同一であり、ここではそれらの詳細は繰り返し説明せず、相違点のみについて説明する。
The structure of the
実施例3において、実施例2との相違点は、図14に示す操作モード生成手段1043がイベント生成手段1041により生成されたイベントと、動作モード生成手段1042により生成された動作モードとに基づいて、操作モードを生成するということにある。 The difference between the third embodiment and the second embodiment is that the operation mode generation means 1043 shown in FIG. 14 is based on the event generated by the event generation means 1041 and the operation mode generated by the operation mode generation means 1042. , Is to generate the operation mode.
(実施例3の動作)
図22は、操作検出装置100が実行する実施例3の動作である操作検出方法のフローである。図22において、実施例2の操作検出装置100が実行する動作と同一の動作には同一符号を付け、重複する説明を省略する。
(Operation of Example 3)
FIG. 22 is a flow of the operation detecting method which is the operation of the third embodiment executed by the
図22に示すように、実施例2の操作検出装置100の動作フローチャートである図18との相違点は、ステップS3063の代わりにステップS3066を用いることにある。
As shown in FIG. 22, the difference from the operation flowchart of FIG. 18 of the
ステップS3066において、操作検出装置100は操作モード生成手段1043により、ステップS3060においてイベント生成手段1041により生成されたイベントと、ステップS3061において動作モード生成手段1042により生成された動作モードとに基づいて、操作モードを生成した後に、ステップS3065に進む。ここでは、図21に示す操作モードを生成するとする。
In step S3066, the
その後、ステップS3065において、操作検出装置100は操作検出手段1045により、ステップS304において検出画像入力部103により入力された検出画像と、ステップS3063において操作モード生成手段1043により生成された操作モード(例えば図21に示す)とに基づいて、操作を検出する。
Then, in step S3065, the
本実施例に係る操作検出装置100によれば、上述のような第1の実施形態、実施例1及び実施例2の技術効果を備え、ここでは、重複する説明は省略する。
The
(第2の実施形態)
以下、第2の実施形態に係る操作検出装置100Aについて説明する。
(Second embodiment)
Hereinafter, the
(操作検出装置100Aの構成)
図23は、第2の実施形態の操作検出装置100Aの構成を示す図である。図23において、第1の実施形態の操作検出装置100の構造を示す図である図1と同一の要素には同一の符号を付け、重複説明を省略する。
(Structure of
FIG. 23 is a diagram showing the configuration of the
第2の実施形態の操作検出装置100Aと、第1の実施形態の操作検出装置100との相違点は、第2の実施形態に係る操作検出装置100Aが操作時間検出部105を備えることにある。
The difference between the
操作時間検出部105は操作検出部104により検出された操作に基づいて、操作の開始時間と終了時間を検出する。
The operation
例えば、操作時間検出部105は操作検出部104により検出された操作に基づいて、検出画像に含まれる時間情報により、操作の開始時間と終了時間を特定する。
For example, the operation
また、操作時間検出部105は、操作検出部104により検出された操作に基づいて、当該操作を生成する操作モードのイベント及び/又は動作モードに含まれる時間情報に応じて、操作の開始時間と終了時間を検出する。
In addition, the operation
(操作検出装置100Aの動作)
図24は第2の実施形態の操作検出装置100Aの動作フローチャートである。図24において、第1の実施形態の操作検出装置100が実行する動作である図3に示す動作と同一の動作には同一の符号を付け、重複する説明を省略する。
(Operation of
FIG. 24 is an operation flowchart of the
図24に示すように、第1の実施形態の操作検出装置100が実行する動作である図3に示す動作との相違点は、ステップS300〜ステップS306を実行した後、処理を終了しておらず、ステップS240に進むことである。
As shown in FIG. 24, the difference from the operation shown in FIG. 3, which is the operation performed by the
ステップS240において、操作時間検出部105は、操作検出部104により検出された操作に基づいて、操作の開始時間と終了時間を検出した後に、処理を終了する。
In step S240, the operation
第2の実施形態に係る操作検出装置100Aによれば、第1の実施形態及び各実施例の技術効果を備えることができ、それに加え、操作を検出した上で、さらに、操作の開始時間と終了時間を検出することができる。従って、例えばIEエンジニアに頼らずに、生産ライン上の各ステーションのオペレータの操作時間の情報をリアルタイムで、正確に、効率的に取得することができ、さらに、生産ラインのバランスをリアルタイム、正確に分析することができ、それにより、生産率と生産ラインに製造される製品の品質とを保証するようにタイムリーで調整することができる。
According to the
以上、操作検出装置及び操作検出方法の具体的な表現形態について詳述したが、具体的な表現形態はこれに限定されるものではなく、操作検出システム、集積回路、プログラム及びプログラムが記録された媒体等の種々の形態で表現されてもよい。 The specific expression form of the operation detection device and the operation detection method has been described above in detail, but the specific expression form is not limited to this, and the operation detection system, the integrated circuit, the program, and the program are recorded. It may be expressed in various forms such as a medium.
図25は操作検出システムの構成を示す図である。 FIG. 25 is a diagram showing the configuration of the operation detection system.
図25に示すように、操作検出システム1000はトレーニング画像取得装置200、対象検出モデル生成装置300及び操作検出装置100を備える。
As shown in FIG. 25, the
ここでは、操作検出装置100は上述した操作検出装置100であるため、ここでは、詳細な説明は省略する。また、操作検出システムは、当然ながら操作検出装置100Aを備えることもできる。
Here, since the
トレーニング画像取得装置200は、対象が撮像された複数枚のトレーニング画像を取得するためのものである。トレーニング画像取得装置200は、生産ラインにおける各ステーションのオペレータの操作を撮像することにより、動画像を、トレーニング画像として得るカメラであってもよい。さらに、トレーニング画像取得装置200は、有線又は無線通信を介して外部から生産ラインにおける各ステーションのオペレータの操作を撮像することにより動画像をトレーニング画像として得る、データ受信機能を有する有線又は無線通信モジュール/部品であってもよい。
The training
対象検出モデル生成装置300は、トレーニング画像取得装置200により取得された複数枚のトレーニング画像に基づいて、対象検出モデルを生成する。対象検出モデル生成装置300は、例えば下記の方法を用いて対象検出モデルを生成することができる。即ち、生産ラインにおける各ステーションのオペレータの操作を撮像して得られたトレーニング画像群である動画像を処理して複数枚のトレーニング画像を抽出し、抽出された複数枚のトレーニング画像をマーキングし、複数枚のトレーニング画像の各トレーニング画像に1つ以上の対象をマーキングした後、当該1つ以上の対象がマーキングされた複数枚の、時系列情報が含まれたトレーニング画像に基づいてディープラーニングを行い、対象検出モデルを生成する(トレーニングする)。ここでは、ディープラーニングにより、対象検出モデルを生成する方法は一例であって、これに限定されるものではなく,正確な対象検出モデルを得ることができれば、公知又は将来現れる可能性のある様々な方法を用いることができる。
The target detection
操作検出システムは、含まれた操作検出装置に応じて、対応する操作検出装置の技術的効果を備え、ここでは繰り返し説明しない。 The operation detection system has the technical effect of a corresponding operation detection device, depending on the operation detection device included, and will not be described repeatedly here.
本発明が提供する操作検出装置、操作検出方法及び操作検出システムによれば、生産ライン上の各オペレータの操作を入手に頼らず、正確に、リアルタイムに検出することができ、生産ラインのバランスを調整するように生産ライン上の各オペレータの作業時間情報を正確に検出することができ、製品欠陥を予測又は検出するように操作異常を漏れなく検出することができ、生産ライン上のオペレータの操作に追従することができ、オペレータの操作を分析評価して生産ラインを改善することに寄与する。 According to the operation detection device, the operation detection method, and the operation detection system provided by the present invention, the operation of each operator on the production line can be accurately detected in real time without depending on the acquisition, and the balance of the production line can be improved. It is possible to accurately detect the working time information of each operator on the production line so as to make adjustments, to detect operation abnormalities without fail to predict or detect product defects, and to operate the operator on the production line. Can contribute to improving the production line by analyzing and evaluating the operation of the operator.
(変形例)
以上、各実施形態について説明したが、本発明は前記実施形態、実施例及び変形例に限定されるものではない。例えば、当業者が上述した各実施形態、実施例及び変形例に対して適宜構成要素の追加、削除、設計変更を行ったもの、各実施形態、実施例又は変形例の特徴を適宜組み合わせたものも、本発明の技術的思想に合致する限り本発明の範囲に含まれる。
(Modification)
Although the respective embodiments have been described above, the present invention is not limited to the embodiments, examples, and modified examples. For example, a person skilled in the art appropriately adds or deletes components or changes the design of each of the embodiments, examples, and modified examples described above, and appropriately combines the features of each embodiment, example, or modified example. Also, as long as it matches the technical idea of the present invention, it is included in the scope of the present invention.
例えば第2の実施形態において、第1の実施形態の実施例1〜実施例3を適用して操作を検出してもよい。 For example, in the second embodiment, the operations may be detected by applying Examples 1 to 3 of the first embodiment.
なお、本発明は上記の各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。 It should be noted that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements within a range not departing from the gist of the invention in an implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, the constituent elements of different embodiments may be combined appropriately.
100…操作検出装置、101…対象検出モデル取得部、102…対象情報取得部、103…検出画像入力部。 100 ... Operation detection device, 101 ... Target detection model acquisition unit, 102 ... Target information acquisition unit, 103 ... Detected image input unit.
Claims (9)
前記複数枚のトレーニング画像と、前記対象検出モデル取得部により取得された前記対象検出モデルとに基づいて、対象情報を取得する対象情報取得部と、
オペレータの操作を検出するための検出画像を入力する検出画像入力部と、
前記対象情報取得部により取得された前記対象情報と、前記検出画像入力部により入力された前記検出画像とに基づいて、前記操作を検出する操作検出部と、
を備える操作検出装置。 A target detection model acquisition unit that acquires a target detection model based on a plurality of training images,
A target information acquisition unit that acquires target information based on the plurality of training images and the target detection model acquired by the target detection model acquisition unit,
A detection image input unit for inputting a detection image for detecting the operation of the operator,
An operation detection unit that detects the operation based on the target information acquired by the target information acquisition unit and the detected image input by the detected image input unit,
An operation detection device including.
前記対象情報取得部により取得された前記対象情報に基づいて、イベントを生成するイベント生成手段と、
前記イベント生成手段により生成された前記イベントに基づいて、操作モードを生成する操作モード生成手段と、
前記検出画像入力部により入力された前記検出画像と、前記操作モード生成手段により生成された前記操作モードとに基づいて、前記操作を検出する操作検出手段と、
を備える請求項1記載の操作検出装置。 The operation detection unit,
Event generating means for generating an event based on the target information acquired by the target information acquiring section;
Operation mode generation means for generating an operation mode based on the event generated by the event generation means,
An operation detection unit that detects the operation based on the detection image input by the detection image input unit and the operation mode generated by the operation mode generation unit,
The operation detection device according to claim 1, further comprising:
前記対象情報取得部により取得された前記対象情報に基づいて、イベントを生成するイベント生成手段と、
前記イベント生成手段により生成された前記イベントに基づいて、動作モードを生成する動作モード生成手段と、
前記動作モード生成手段により生成された前記動作モードに基づいて、操作モードを生成する操作モード生成手段と、
前記検出画像入力部により入力された前記検出画像と、前記操作モード生成手段により生成された前記操作モードとに基づいて、前記操作を検出する操作検出手段と、
を備える請求項1記載の操作検出装置。 The operation detection unit,
Event generating means for generating an event based on the target information acquired by the target information acquiring section;
Operation mode generation means for generating an operation mode based on the event generated by the event generation means,
Operation mode generation means for generating an operation mode based on the operation mode generated by the operation mode generation means,
An operation detection unit that detects the operation based on the detection image input by the detection image input unit and the operation mode generated by the operation mode generation unit,
The operation detection device according to claim 1, further comprising:
前記イベント生成手段により生成された前記イベントと、前記動作モード生成手段により生成された前記動作モードとに基づいて、操作モードを生成する請求項3に記載の操作検出装置。 The operation mode generation means,
The operation detection device according to claim 3, wherein an operation mode is generated based on the event generated by the event generation unit and the operation mode generated by the operation mode generation unit.
前記トレーニング画像取得装置により取得された複数枚のトレーニング画像に基づいて、対象検出モデルを生成する対象検出モデル生成装置と、
請求項1乃至請求項7のいずれか一項記載の操作検出装置と、
を備える操作検出システム。 A training image acquisition device for acquiring a plurality of training images in which an object is captured;
Based on a plurality of training images acquired by the training image acquisition device, a target detection model generation device for generating a target detection model,
An operation detection device according to any one of claims 1 to 7,
An operation detection system including.
前記複数枚のトレーニング画像と、前記対象検出モデル取得ステップにより取得された前記対象検出モデルとに基づいて、対象情報を取得する対象情報取得ステップと、
オペレータの操作を検出するための検出画像を入力する検出画像入力ステップと、
前記対象情報取得ステップにより取得された前記対象情報と、前記検出画像入力ステップにより入力された前記検出画像とに基づいて、前記操作を検出する操作検出ステップと、
を備える操作検出方法。 A target detection model acquisition step of acquiring a target detection model based on a plurality of training images,
A target information acquisition step of acquiring target information based on the plurality of training images and the target detection model acquired by the target detection model acquisition step;
A detection image input step of inputting a detection image for detecting the operation of the operator,
An operation detection step of detecting the operation based on the target information acquired by the target information acquisition step and the detected image input by the detected image input step;
An operation detection method comprising:
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811249823.2A CN111105109A (en) | 2018-10-25 | 2018-10-25 | Operation detection device, operation detection method, and operation detection system |
CN201811249823.2 | 2018-10-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020068009A true JP2020068009A (en) | 2020-04-30 |
JP6828093B2 JP6828093B2 (en) | 2021-02-10 |
Family
ID=70388533
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019118627A Active JP6828093B2 (en) | 2018-10-25 | 2019-06-26 | Operation detection device, operation detection method and operation detection system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6828093B2 (en) |
CN (1) | CN111105109A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115511367A (en) * | 2022-10-21 | 2022-12-23 | 上海数瞳信息科技有限公司 | Intelligent quality management system of production line |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014240800A (en) * | 2013-06-12 | 2014-12-25 | 株式会社ブリヂストン | Inspection auxiliary device |
JP6330093B1 (en) * | 2017-08-21 | 2018-05-23 | ミライアプリ株式会社 | Motion determination program, motion determination device, motion determination image generation program, motion determination image generation device |
JP6403920B1 (en) * | 2017-11-17 | 2018-10-10 | 三菱電機株式会社 | 3D space monitoring device, 3D space monitoring method, and 3D space monitoring program |
JP2018165893A (en) * | 2017-03-28 | 2018-10-25 | 日本電気株式会社 | Work support device, work support method, and work support program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014183004A1 (en) * | 2013-05-10 | 2014-11-13 | Robert Bosch Gmbh | System and method for object and event identification using multiple cameras |
WO2016098264A1 (en) * | 2014-12-19 | 2016-06-23 | 富士通株式会社 | Processing method in analysis device, processing program, analysis device, method for setting detection operation, and setting program |
JP6672712B2 (en) * | 2015-11-04 | 2020-03-25 | 日本電気株式会社 | Abnormal work detection system and abnormal work detection method |
KR101900237B1 (en) * | 2017-10-20 | 2018-09-19 | 주식회사 삼진엘앤디 | On-site judgment method using situation judgment data on acquired images |
CN108491759A (en) * | 2018-02-10 | 2018-09-04 | 合肥迪宏自动化有限公司 | A kind of process detection device and its process detection method based on deep learning |
CN108681690B (en) * | 2018-04-04 | 2021-09-03 | 浙江大学 | Assembly line personnel standard operation detection system based on deep learning |
-
2018
- 2018-10-25 CN CN201811249823.2A patent/CN111105109A/en active Pending
-
2019
- 2019-06-26 JP JP2019118627A patent/JP6828093B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014240800A (en) * | 2013-06-12 | 2014-12-25 | 株式会社ブリヂストン | Inspection auxiliary device |
JP2018165893A (en) * | 2017-03-28 | 2018-10-25 | 日本電気株式会社 | Work support device, work support method, and work support program |
JP6330093B1 (en) * | 2017-08-21 | 2018-05-23 | ミライアプリ株式会社 | Motion determination program, motion determination device, motion determination image generation program, motion determination image generation device |
JP6403920B1 (en) * | 2017-11-17 | 2018-10-10 | 三菱電機株式会社 | 3D space monitoring device, 3D space monitoring method, and 3D space monitoring program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115511367A (en) * | 2022-10-21 | 2022-12-23 | 上海数瞳信息科技有限公司 | Intelligent quality management system of production line |
CN115511367B (en) * | 2022-10-21 | 2023-07-25 | 上海数瞳信息科技有限公司 | Intelligent quality management system of production line |
Also Published As
Publication number | Publication date |
---|---|
JP6828093B2 (en) | 2021-02-10 |
CN111105109A (en) | 2020-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9187188B2 (en) | Assembly inspection system and method | |
US11449980B2 (en) | System and method for combined automatic and manual inspection | |
US20130010068A1 (en) | Augmented reality system | |
TWI618940B (en) | Device and method for detecting blind hole of printed circuit board | |
CN107305234B (en) | Measuring device | |
US20230110396A1 (en) | Layup table for composite fabrication with ai quality control modules | |
JP2017199263A (en) | Failure information acquisition system and failure information acquisition method | |
JP5371674B2 (en) | Test equipment | |
CN108693839B (en) | Intelligent processing modulation system and method | |
JP6828093B2 (en) | Operation detection device, operation detection method and operation detection system | |
EP2154591B1 (en) | Device and method for testing systems with visual output | |
US20200098102A1 (en) | Quality estimation device, quality estimation method, and quality estimation program | |
JP2023126335A (en) | Imaging device and identification method | |
JP5824550B1 (en) | Data management apparatus and data management program | |
US20240153069A1 (en) | Method and arrangement for testing the quality of an object | |
DE112022004981T5 (en) | Display data generation program, display data generation device and display data generation method | |
JP7181257B2 (en) | Cause analysis system and method | |
JP2009110239A (en) | System and method for analysis of working operation | |
Viharos et al. | Vision based, statistical learning system for fault recognition in industrial assembly environment | |
CN110588167B (en) | Method and apparatus for image monitoring | |
JP2002031605A (en) | Defect-confirming apparatus and automatic visual inspection apparatus | |
Ramler et al. | What you see is what you test-augmenting software testing with computer vision | |
KR102579226B1 (en) | Machine vision inspection system for non-circular container production process using deep learning | |
Schuster et al. | How Digital Field Solutions Add Value to Today's Production Processes | |
US20240303982A1 (en) | Image processing device and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200825 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210120 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6828093 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |