JP2020022101A - Monitoring device, production line, and control method of monitoring device - Google Patents

Monitoring device, production line, and control method of monitoring device Download PDF

Info

Publication number
JP2020022101A
JP2020022101A JP2018145437A JP2018145437A JP2020022101A JP 2020022101 A JP2020022101 A JP 2020022101A JP 2018145437 A JP2018145437 A JP 2018145437A JP 2018145437 A JP2018145437 A JP 2018145437A JP 2020022101 A JP2020022101 A JP 2020022101A
Authority
JP
Japan
Prior art keywords
moving image
monitoring device
camera
partial
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018145437A
Other languages
Japanese (ja)
Other versions
JP2020022101A5 (en
Inventor
茂 鳥井原
Shigeru Toriihara
茂 鳥井原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018145437A priority Critical patent/JP2020022101A/en
Publication of JP2020022101A publication Critical patent/JP2020022101A/en
Publication of JP2020022101A5 publication Critical patent/JP2020022101A5/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Abstract

To simplify a work for confirming a recorded moving image, without modifying a system on the side where a production line including an automatic machine is monitored.SOLUTION: Without changing a system to be monitored, and a system on the monitored side, a moving image M shot by means of a camera 21 is recorded by means of a recorder 22. For example, a moving image processing section placed in the recorder 22 detects a repetition part of the recorded original moving image (M), and divides the original moving image (M) into partial moving images in units of the detected repetition part. Detection of the repetition part is carrier out by applying a circulation detection method of Floyd to change with time of representative values from multiple still-images clipped from the original moving image, for example. The partial moving images are formed as multiple partial moving image files, or by imparting chapter data in units of the repetition part. Specific partial moving images specified by user operation are reproduced by means of a moving image reproducer.SELECTED DRAWING: Figure 2

Description

本発明は、カメラと、カメラで撮影した動画を記録する記録装置とを用いる監視装置、生産ライン、および監視装置の制御方法に関する。   The present invention relates to a monitoring device, a production line, and a control method of a monitoring device that use a camera and a recording device that records a moving image captured by the camera.

従来より、カメラと、カメラで撮影した動画を記録する記録装置とを用いた監視装置が知られている。この種の監視装置は、店舗や住居用途の建物、道路、交差点、踏切などで用いられる他、生産ラインに配置された生産装置としての自動機の監視など、種々の用途に用いられている。   2. Description of the Related Art A monitoring device using a camera and a recording device that records a moving image captured by the camera has been known. This type of monitoring device is used for various purposes such as monitoring of an automatic machine as a production device arranged in a production line, in addition to being used in stores, residential buildings, roads, intersections, level crossings, and the like.

特に、生産ラインにおいては、生産装置としての自動機、例えばロボットアームや、供給/排出ストッカや各種の搬送装置の監視に、動画撮影/記録を行う監視装置が用いられる。例えばロボットアームや、供給/排出ストッカや各種の搬送装置のような自動機は、人手を介さずに、材料を加工する工程や、各種の物品やその部品を組み立てる工程を実施する。自動機の監視装置は、他の用途で用いられる監視装置と同様にこれらの自動機の稼働する様子を撮影し続ける。自動機の監視装置は、特に自動機の正常な稼働を視認する用途、あるいは自動機に異常が発生した際に異常の原因を分析する用途などに利用される。   Particularly, in a production line, an automatic machine as a production device, such as a robot arm, a monitoring device that performs moving image capturing / recording is used for monitoring a supply / discharge stocker and various transport devices. For example, an automatic machine such as a robot arm, a supply / discharge stocker, or various transport devices performs a process of processing a material or a process of assembling various articles and parts thereof without manual intervention. The monitoring devices of the automatic machines continue to photograph the operation of these automatic machines in the same manner as the monitoring devices used in other applications. The monitoring device of the automatic machine is used particularly for the purpose of visually confirming the normal operation of the automatic machine or for analyzing the cause of the abnormality when an abnormality occurs in the automatic machine.

用途によっては、監視装置のカメラと記録装置は、長期間に渡って稼働させ続け、長時間の動画を記録し続ける。その動画の長さは、数日、場合によっては月、年の単位に及ぶ場合もある。撮影した動画を解析する場合、このような長時間の動画は、画像処理を用いた自動的な解析手続が適用できる場合もあるが、多くの場合、ユーザが動画を再生させて、撮影されている被写体の状態を確認(視聴)することによって行うことも多い。その場合、記録した動画が膨大であるほど、ユーザが確認したい動画を見つけにくい、という問題があった。   In some applications, the camera and the recording device of the monitoring device continue to operate for a long period of time and record a long moving image. The length of the video can be several days, sometimes months, or years. When analyzing a captured moving image, an automatic analysis procedure using image processing may be applicable to such a long-time moving image, but in many cases, the user plays back the moving image and the image is captured. It is often performed by confirming (viewing) the state of the subject. In that case, there is a problem that it is difficult for the user to find a moving image that the user wants to check as the recorded moving image is enormous.

特に自動機の監視においては、上記の問題に鑑み、監視装置を生産ラインの異常状態を検出する検出装置と接続し、異常状態が検出された場合、対応する動画を上書き不可にする制御を行う構成が提案されている(例えば下記の特許文献1)。また、本明細書でいう自動機に類する設備装置の発生する信号に応じて撮影する撮影装置を有する構成も知られている(例えば下記の特許文献2)。この構成では、設備装置が必要と判定した場合に、動画撮影が行なわれる。   In particular, in monitoring an automatic machine, in consideration of the above problem, a monitoring device is connected to a detection device that detects an abnormal state of a production line, and when an abnormal state is detected, control is performed so that a corresponding moving image cannot be overwritten. A configuration has been proposed (for example, Patent Document 1 below). Further, a configuration having an image capturing device that captures an image according to a signal generated by a facility device similar to an automatic machine referred to in the present specification is also known (for example, Patent Document 2 below). In this configuration, when it is determined that the facility device is necessary, moving image shooting is performed.

特開2016−122319号公報JP-A-2006-122319 特開平6−86288号公報JP-A-6-86288

特許文献1の監視装置では、自動機に異常状態を検出する検出装置を接続する必要がある。この場合、自動機は、検出装置を設置できるよう構成されている必要がある。あるいは、既に稼働している自動機に検出装置を設置するのであれば、場合によっては機械的、あるいは電気的な改造が必要になる場合がある。このような変更は、自動機の仕様や稼働状態により、許容されない場合が考えられる。また、特許文献2の監視装置では、自動機と自動機の監視装置を、制御信号を授受できるよう電気的に接続しなければならない。また、自動機に監視装置の制御ソフトウェアを搭載する必要がある。このような変更は、上記同様、自動機の仕様や稼働状態により、許容されない場合が考えられる。   In the monitoring device of Patent Literature 1, it is necessary to connect a detection device that detects an abnormal state to the automatic machine. In this case, the automatic machine needs to be configured so that the detection device can be installed. Alternatively, if the detection device is installed in an automatic machine that is already operating, mechanical or electrical remodeling may be required in some cases. Such a change may not be allowed depending on the specifications and operating conditions of the automatic machine. Further, in the monitoring device of Patent Document 2, the automatic device and the monitoring device of the automatic device must be electrically connected so that a control signal can be transmitted and received. In addition, it is necessary to install control software for a monitoring device in an automatic machine. Similar to the above, such a change may not be allowed depending on the specifications and operating state of the automatic machine.

本発明の課題は、監視される系、例えば自動機の配置された生産ラインなど、監視を受ける側のシステムを改変する必要なく、記録された動画を確認する作業を容易に行えるようにすることにある。   An object of the present invention is to make it possible to easily check a recorded moving image without modifying a monitored system, for example, a production line in which an automatic machine is arranged, such as a production line. It is in.

上記課題を解決するため、本発明においては、カメラと、前記カメラで撮影した動画を記録する記録装置と、前記カメラが撮影した原動画から繰り返し部分を検出し、検出した繰り返し部分を単位として前記原動画を部分動画に分割する動画処理部と、を備えた構成を採用した。   In order to solve the above problem, in the present invention, a camera, a recording device that records a moving image captured by the camera, and detects a repeated portion from the original video captured by the camera, the detected repeated portion as a unit And a moving image processing unit that divides the original moving image into partial moving images.

上記構成によれば、長時間、記録された動画を容易に部分動画に分割することができ、監視される系、例えば自動機の配置された生産ラインなど、監視を受ける側のシステムを改変する必要なく、記録された動画を確認する作業を容易に行えるようになる。   According to the above configuration, a recorded moving image can be easily divided into partial moving images for a long time, and a monitored system, for example, a monitored system such as a production line in which an automatic machine is arranged is modified. The user can easily check the recorded moving image without any need.

自動機および自動機の監視装置を示した説明図である。It is explanatory drawing which showed the automatic machine and the monitoring apparatus of the automatic machine. 自動機および自動機の監視装置の制御系を示した説明図である。It is an explanatory view showing a control system of an automatic machine and a monitoring device of the automatic machine. 自動機が稼働する様子を示した説明図である。It is explanatory drawing which showed the mode that an automatic machine operates. 自動機が稼働する様子を示した説明図である。It is explanatory drawing which showed the mode that an automatic machine operates. 自動機が稼働する様子を示した説明図である。It is explanatory drawing which showed the mode that an automatic machine operates. 自動機が稼働する様子を示した説明図である。It is explanatory drawing which showed the mode that an automatic machine operates. 自動機が稼働する様子を示した説明図である。It is explanatory drawing which showed the mode that an automatic machine operates. カメラで図3の状態を撮影したフレームを示した説明図である。FIG. 4 is an explanatory diagram showing a frame in which the state of FIG. 3 is photographed by a camera. カメラで図4の状態を撮影したフレームを示した説明図である。FIG. 5 is an explanatory diagram showing a frame obtained by photographing the state of FIG. 4 with a camera. カメラで図5の状態を撮影したフレームを示した説明図である。It is explanatory drawing which showed the frame which image | photographed the state of FIG. 5 with the camera. カメラで図6の状態を撮影したフレームを示した説明図である。FIG. 7 is an explanatory diagram showing a frame in which the state of FIG. 6 is photographed by a camera. カメラで図7の状態を撮影したフレームを示した説明図である。It is explanatory drawing which showed the frame which image | photographed the state of FIG. 7 with the camera. 演繹的アルゴリズムを用いて動画を分割する手法を示した説明図である。FIG. 4 is an explanatory diagram showing a technique for dividing a moving image using a deductive algorithm. 分割された部分動画群と、その再生の様子を示した説明図である。FIG. 9 is an explanatory diagram showing a divided partial moving image group and a state of reproduction thereof. (a)〜(c)は学習系および判別器を用いて動画を分割する手法を示した説明図である。(A)-(c) is explanatory drawing which showed the technique of dividing a moving image using a learning system and a discriminator. 動画分割に用いることができる制御装置の具体的な構成の一例を示したブロック図である。FIG. 3 is a block diagram illustrating an example of a specific configuration of a control device that can be used for moving image division.

以下、添付図面を参照して本発明を実施するための形態につき説明する。なお、以下に示す構成はあくまでも一例であり、例えば細部の構成については本発明の趣旨を逸脱しない範囲において当業者が適宜変更することができる。また、本実施形態で取り上げる数値は、参考数値であって、本発明を限定するものではない。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the accompanying drawings. The configuration described below is merely an example, and for example, a detailed configuration can be appropriately changed by those skilled in the art without departing from the spirit of the present invention. Also, the numerical values taken up in the present embodiment are reference numerical values and do not limit the present invention.

本実施形態の自動機の監視装置は、生産ラインに生産機器として配置された自動機によって行われる生産動作の様子を撮影、記録する。記録した動画は、自動機の正常な稼働を視認する用途、自動機に異常が発生した際に異常の原因を分析する用途に、好適に用いることができる。ただし、本発明の技術は、必ずしも自動機を監視対象とする監視装置においてのみ限定的に適用されるものではなく、他の監視対象が自動機や生産ライン以外であっても実施することができるものである。   The monitoring device for an automatic machine according to the present embodiment captures and records the state of a production operation performed by the automatic machine arranged as a production device on a production line. The recorded moving image can be suitably used for visual recognition of the normal operation of the automatic machine and for analysis of the cause of the abnormality when an abnormality occurs in the automatic machine. However, the technology of the present invention is not necessarily limitedly applied to a monitoring device that targets an automatic machine, and can be implemented even if another monitoring target is other than an automatic machine or a production line. Things.

図1は、物品の生産ラインにおいて、監視装置2とともに配置された自動機1を示している。監視装置2は、カメラ21と、カメラ21で撮影した動画の記録装置としてのレコーダ22とを備え、カメラ21で自動機1周辺を動画撮影することにより監視する。カメラ21が撮影する動画の撮影フレームレートは任意であり、場合によっては静止画の間歇撮影と呼ぶにふさわしいフレームレートの場合でも、本実施形態の技術は実施することができる。   FIG. 1 shows an automatic machine 1 arranged together with a monitoring device 2 in an article production line. The monitoring device 2 includes a camera 21 and a recorder 22 as a recording device for a moving image captured by the camera 21, and monitors the surroundings of the automatic machine 1 with the camera 21 by capturing a moving image. The shooting frame rate of a moving image captured by the camera 21 is arbitrary, and the technology of the present embodiment can be implemented even in a case where the frame rate is appropriate for intermittent shooting of a still image in some cases.

図1において、自動機1は、定盤16に配置されたPLC(プログラマブル・ロジック・コントローラ)11、ロボット12、供給ストッカ13、排出ストッカ14、作業台15、を備えている。供給ストッカ13には、物品を製造するための部品A、部品Bが載置されている。PLC11は、ロボット12、供給ストッカ13、排出ストッカ14の動作を制御し、部品Aおよび部品Bから物品を製造する動作を行わせる。   In FIG. 1, the automatic machine 1 includes a PLC (programmable logic controller) 11, a robot 12, a supply stocker 13, a discharge stocker 14, and a work table 15 arranged on a base plate 16. A part A and a part B for manufacturing an article are placed on the supply stocker 13. The PLC 11 controls the operations of the robot 12, the supply stocker 13, and the discharge stocker 14 to perform an operation of manufacturing an article from the component A and the component B.

ロボット12は、複数の可動部および駆動系を有する構成であり、例えば図示のような垂直多関節型のロボットアームおよびその先端に装着されたエンドエフェクタとしてのハンド121から成る。ロボット12は、PLC11の指令を受けて、各駆動系により各可動部を動作させ、目的に応じた位置、姿勢を取ることができる。   The robot 12 has a configuration having a plurality of movable parts and a drive system, and includes, for example, a vertical articulated robot arm as shown and a hand 121 as an end effector mounted on the tip of the robot arm. The robot 12 can operate each movable part by each drive system in response to a command from the PLC 11, and can take a position and a posture according to the purpose.

ロボット12の先端に装着されたハンド121は、フィンガ方式、エアー吸引方式などによって、部品A、Bを把持可能な把持手段を構成する。   The hand 121 attached to the tip of the robot 12 constitutes a gripper capable of gripping the components A and B by a finger method, an air suction method, or the like.

供給ストッカ13および排出ストッカ14も、自動機1の一部であり、複数の可動部および駆動系を有する。供給ストッカ13は、PLC11の指令に基づき、載置された部品群をロボット12が取りやすいよう、あるいは自動機の外部から部品群の供給を受けるための位置姿勢に駆動される。排出ストッカ14は、PLC11の指令に基づき、ロボット12がなんらか操作した部品群を置きやすいよう、あるいは自動機の外部へ部品群を排出するための位置姿勢に駆動される。   The supply stocker 13 and the discharge stocker 14 are also a part of the automatic machine 1 and have a plurality of movable parts and a drive system. The supply stocker 13 is driven based on a command from the PLC 11 so as to make it easier for the robot 12 to take the placed component group, or to be in a position and orientation for receiving the supply of the component group from outside the automatic machine. The discharge stocker 14 is driven based on a command from the PLC 11 so that the robot 12 can easily place a component group that has been operated in some way, or a position and orientation for discharging the component group to the outside of the automatic machine.

作業台15は、ロボット12が、取得した部品群を一時的に載置し、加工や組み立てなどの操作を行う際に、使用される。ロボット12、供給ストッカ13、排出ストッカ14、作業台15は、定盤16上の所定位置に固定され、互いに望ましい位置関係が保持されている。定盤16の剛性や水平度などの仕様は、自動機1に要求される性能や仕様に応じて適宜定められる。   The work table 15 is used when the robot 12 temporarily places the acquired component group and performs operations such as processing and assembly. The robot 12, the supply stocker 13, the discharge stocker 14, and the worktable 15 are fixed at predetermined positions on a surface plate 16, and a desirable positional relationship is maintained. Specifications such as rigidity and levelness of the surface plate 16 are appropriately determined according to the performance and specifications required for the automatic machine 1.

図1の監視装置2は、カメラ21およびレコーダ22によって構成されている。カメラ21は、制御信号などによって、レコーダ22と電気的に接続されている。レコーダ22からカメラ21へは、撮影を指令する信号などが送信される。カメラ21からレコーダ22へは、撮影した動画M(図2)が送信される。   The monitoring device 2 in FIG. 1 includes a camera 21 and a recorder 22. The camera 21 is electrically connected to the recorder 22 by a control signal or the like. From the recorder 22 to the camera 21, a signal or the like for instructing shooting is transmitted. The captured moving image M (FIG. 2) is transmitted from the camera 21 to the recorder 22.

ユーザは、カメラ21を、ロボット12、供給ストッカ13、排出ストッカ14、作業台15を視野に含むよう、配置する。カメラ21の配置は、図示した位置より、もっと遠方でも良いし、カメラ21は、定盤16やロボット12に固定されていてもよい。また、図1では三脚のようなカメラマウントを用いて配置されているが、カメラ21が天井付け、のような方法で配置され、上方から自動機1を監視する構成であってもよい。   The user arranges the camera 21 so as to include the robot 12, the supply stocker 13, the discharge stocker 14, and the worktable 15 in the field of view. The arrangement of the camera 21 may be farther than the illustrated position, and the camera 21 may be fixed to the surface plate 16 or the robot 12. Further, in FIG. 1, the camera 21 is arranged using a camera mount like a tripod. However, the camera 21 may be arranged in such a way as to be mounted on a ceiling, and the automatic machine 1 may be monitored from above.

カメラ21は、ロボット12、供給ストッカ13、排出ストッカ14、作業台15、部品A、部品Bが動作する様子を撮影し、撮影した動画M(図2)は、レコーダ22に記録される。   The camera 21 photographs the operation of the robot 12, the supply stocker 13, the discharge stocker 14, the worktable 15, and the components A and B, and the captured moving image M (FIG. 2) is recorded on the recorder 22.

図2は、自動機と、自動機の監視装置の接続関係を示している。特筆すべきは、本実施形態においては、例えばPLC11とレコーダ22が非接続であって、監視装置2と、監視される系である自動機1が接続されていない点である。   FIG. 2 shows a connection relationship between the automatic machine and a monitoring device of the automatic machine. It should be noted that, in the present embodiment, for example, the PLC 11 and the recorder 22 are not connected, and the monitoring device 2 and the automatic machine 1 to be monitored are not connected.

自動機1における、PLC11とロボット12とは、ロボットドライバ122を介して接続されている。同様に、PLC11と接続するために、供給ストッカ13には供給ストッカドライバ131が、排出ストッカ14には排出ストッカドライバ141が配置されている。一般に、PLC11の出力信号は、ロボットやストッカを直接駆動できるほど高電圧・大電流ではなく、これら各ドライバが駆動信号のタイミングおよび電力の増幅の機能を担う。なお、これら各ドライバは、単にブロックの図示によって示されているが、PLC11と、各被駆動部の間に配置された制御装置の構成であってよい。例えば、ロボット12の場合には、PLC11とロボット12の間にロボット制御装置が配置されることがあるが、本実施形態のロボットドライバ122の機能は、このロボット制御装置によって実現できる。この点は、供給/排出ストッカのドライバについても同様である。   The PLC 11 and the robot 12 in the automatic machine 1 are connected via a robot driver 122. Similarly, the supply stocker 13 is provided with a supply stocker driver 131 and the discharge stocker 14 is provided with a discharge stocker driver 141 for connection with the PLC 11. In general, the output signal of the PLC 11 is not high voltage and large current enough to directly drive a robot or a stocker, and each of these drivers has a function of driving signal timing and power amplification. Although each of these drivers is simply shown by a block diagram, it may have a configuration of a control device disposed between the PLC 11 and each of the driven parts. For example, in the case of the robot 12, a robot controller may be arranged between the PLC 11 and the robot 12, but the function of the robot driver 122 of the present embodiment can be realized by the robot controller. This is the same for the driver of the supply / discharge stocker.

前述の通り、監視装置2のカメラ21とレコーダ22は、相互に接続されているが、本実施形態では監視される自動機1の系とは接続不要であり、監視装置2と自動機1は、異常検出信号や、同期信号の類を相互に送受信する必要はない。   As described above, the camera 21 and the recorder 22 of the monitoring device 2 are connected to each other. However, in the present embodiment, the camera 21 and the recorder 22 do not need to be connected to the system of the automatic machine 1 to be monitored. It is not necessary to mutually transmit and receive an abnormality detection signal and a kind of synchronization signal.

図3〜図7は、自動機1が稼働する様子を、また、図8〜図12は、図3〜図7の状態においてそれぞれカメラ21が撮影した動画フレームを示している。以下では、まず、図3〜図7を参照して自動機1が実施する製造工程の一例を説明する。ここで例示する自動機1の動作は作業台15上で部品AとBを組み立て、排出ストッカ14に排出するものである。   3 to 7 show how the automatic machine 1 operates, and FIGS. 8 to 12 show moving image frames shot by the camera 21 in the states of FIGS. 3 to 7, respectively. Hereinafter, first, an example of a manufacturing process performed by the automatic machine 1 will be described with reference to FIGS. The operation of the automatic machine 1 exemplified here is to assemble the parts A and B on the worktable 15 and discharge the parts A and B to the discharge stocker 14.

図3は、自動機1が実施する第1の工程を示している。この第1の工程では、供給ストッカ13上の部品Aの1つを把持する動作である。ここでは、PLC11の指令により、ロボット12と供給ストッカ13が協調的に駆動されハンド121によって供給ストッカ13上の部品Aが把持される。   FIG. 3 shows a first step performed by the automatic machine 1. The first step is an operation of gripping one of the components A on the supply stocker 13. Here, the robot 12 and the supply stocker 13 are cooperatively driven by a command from the PLC 11, and the component A on the supply stocker 13 is gripped by the hand 121.

図4は、自動機1が実施する第2の工程を示している。この第2の工程では、部品Aを作業台15へ移送、載置する。PLC11の指令により、ロボット12は、ハンド121およびハンド121が把持した部品Aを、作業台15上に移送する。ハンド121が部品Aの把持を解除すると、部品Aは、作業台15上に載置される。   FIG. 4 shows a second step performed by the automatic machine 1. In the second step, the component A is transferred to the work table 15 and placed. In response to a command from the PLC 11, the robot 12 transfers the hand 121 and the component A held by the hand 121 to the worktable 15. When the hand 121 releases the gripping of the component A, the component A is placed on the worktable 15.

図5は、自動機1が実施する第3の工程を示している。この第3の工程では、供給ストッカ13上の部品Bの1つを把持する動作を行う。ここでは、PLC11の指令により、ロボット12と供給ストッカ13が協調的に駆動され、ハンド121が部品Bを把持する。   FIG. 5 shows a third step performed by the automatic machine 1. In the third step, an operation of gripping one of the components B on the supply stocker 13 is performed. Here, the robot 12 and the supply stocker 13 are cooperatively driven by a command from the PLC 11, and the hand 121 grips the component B.

図6は、自動機1が実施する第4の工程を示している。この第4の工程は、部品Aへの部品Bの組み付けに相当する。ここでは、PLC11の指令により、ロボット12は、ハンド121およびハンド121が把持した部品Bを、作業台15上の部品A上に載置し、組み付ける。部品AとBの相互の位置決めは、例えばこれらの部品に設けられた、爪などの嵌合部(詳細不図示)を介して行われる。部品AとBの位置決めが終ると、ハンド121は部品Bの把持を解除する。   FIG. 6 shows a fourth step performed by the automatic machine 1. This fourth step corresponds to assembling of the component B to the component A. Here, the robot 12 places the hand 121 and the component B gripped by the hand 121 on the component A on the work table 15 and assembles them according to a command from the PLC 11. The mutual positioning of the components A and B is performed, for example, via a fitting portion (not shown in detail) such as a claw provided on these components. When the positioning of the components A and B is completed, the hand 121 releases the grip of the component B.

その後、ロボット12は、例えばビス締結、接着などの機械的接合手段により部品Bを部品Aに固着し、組み付ける。この時、必要に応じて、ロボット12は、ハンド121を、ビスの吸着や締結機能を有する別のハンドなどに、自動的に交換する動作を行ってもよい。部品Bを部品Aに組み付けることにより製造された物品(部品A+B)は、ハンド121によって把持される。   After that, the robot 12 fixes and assembles the part B to the part A by mechanical joining means such as screw fastening and bonding. At this time, if necessary, the robot 12 may perform an operation of automatically exchanging the hand 121 with another hand having a screw suction or fastening function. An article (part A + B) manufactured by assembling the part B to the part A is gripped by the hand 121.

図7は、自動機1が実施する第5の工程を示している。この第5の工程では、製造された物品、即ち部品A+Bを排出ストッカ14へ載置する動作を行う。ここでは、PLC11の指令により、ロボット12は、ハンド121およびハンド121が把持した部品A+Bを、排出ストッカ14上に載置する動作を行う。ハンド121は、排出ストッカ14上で部品A+Bの把持を解除し、これにより、製造された物品(部品A+B)が排出ストッカ14に移送される。   FIG. 7 shows a fifth step performed by the automatic machine 1. In the fifth step, an operation of placing the manufactured article, that is, the part A + B on the discharge stocker 14 is performed. Here, in response to a command from the PLC 11, the robot 12 performs an operation of placing the hand 121 and the components A + B held by the hand 121 on the discharge stocker 14. The hand 121 releases the gripping of the components A + B on the discharge stocker 14, whereby the manufactured articles (components A + B) are transferred to the discharge stocker 14.

自動機1は、図4〜図7に示した第1〜5の工程の動作を繰り返して、物品(部品A+B)を次々に製造する。その場合、自動機1は、継続的に供給ストッカ13に対して外部から部品Aおよび部品Bの供給を受け、排出ストッカ14を介して外部に部品A+Bを排出する。   The automatic machine 1 repeats the operations of the first to fifth steps shown in FIGS. 4 to 7 to produce articles (parts A + B) one after another. In this case, the automatic machine 1 continuously receives the supply of the components A and B to the supply stocker 13 from the outside, and discharges the components A + B to the outside via the discharge stocker 14.

次に、図8〜図12を参照して図3〜図7の状態においてそれぞれカメラ21が撮影した動画フレームにつき説明する。自動機1が図3〜図7のように第1〜5の工程を実行する様子を、カメラ21から撮影すると、図8〜図12のようなフレームを含む動画M(図2)がレコーダ22に記録される。   Next, referring to FIGS. 8 to 12, the moving image frames captured by the camera 21 in the states of FIGS. 3 to 7 will be described. When the automatic machine 1 captures images of executing the first to fifth steps as shown in FIGS. 3 to 7 from the camera 21, a moving image M (FIG. 2) including frames as shown in FIGS. Will be recorded.

なお、図8〜図12では、図示の都合上、それぞれ1フレームの画像しか示していない。しかしながら、実際の動画Mには、図8〜図9、図9〜図10、図10〜図11、図11〜図12の間の動作も多数の動画フレームとして記録されているのはもちろんである。また、当然ながら、自動機1が第1〜5の工程(図3〜図7)の1セットを繰り返し実行すると、これを連続的に記録した動画Mには、図12の状態から図8の状態に移行する間の画像も含まれる。   8 to 12, only one frame image is shown for convenience of illustration. However, in the actual moving image M, the operations between FIGS. 8 to 9, 9 to 10, 10 to 11, and 11 to 12 are of course recorded as many moving image frames. is there. Also, if the automatic machine 1 repeatedly executes one set of the first to fifth steps (FIGS. 3 to 7), the moving image M continuously recording the same will be changed from the state of FIG. Images during the transition to the state are also included.

また、自動機の監視装置2の、撮影のタイミングによって、動画Mには、自動機1が稼働していない様子も含まれる。あるいは、自動機1に異常が生じた場合、動画Mには、上記のいずれとも異なる自動機1の様子を撮影した画像が含まれる場合がある。   The moving image M also includes a state in which the automatic machine 1 is not operating, depending on the shooting timing of the monitoring device 2 of the automatic machine. Alternatively, when an abnormality occurs in the automatic machine 1, the moving image M may include an image of a state of the automatic machine 1 different from any of the above.

しかし、本実施形態の監視装置2は、多数回繰り返される第1〜5の工程(図3〜図7)よりも十分、長い時間の動画記録を行うものとする。その場合には、動画Mは、被写体の自動機1が図8〜図9〜図10〜図11〜図12の動作を繰り返す様子がそれぞれ撮影された繰り返し部分を含むことになる。   However, the monitoring device 2 of the present embodiment records moving images for a sufficiently long time than the first to fifth steps (FIGS. 3 to 7) repeated many times. In this case, the moving image M includes a repetition portion in which the automatic machine 1 of the subject repeats the operation of FIGS. 8 to 9 to 10 to 11 to 12.

本実施形態では、このように長時間、切れ目なく記録装置としてのレコーダ22に記録された記録された原動画(M)から繰り返し部分を検出し、検出した繰り返し部分を単位として原動画(M)を部分動画に分割する。この原動画(M)の繰り返し部分は、特定の動作を繰り返す被写体が撮影されている原動画(M)の部分である。   In the present embodiment, a repeated portion is detected from the recorded original moving image (M) recorded in the recorder 22 as a recording device without interruption for a long time, and the original moving image (M) is set in units of the detected repeated portion. Is divided into partial videos. The repetition portion of the original moving image (M) is a portion of the original moving image (M) in which a subject that repeats a specific operation is photographed.

このような原動画(M)の繰り返し部分の検出と、部分動画への分割処理は、動画処理部によって行う。この動画処理部は、独立したスタンドアローンな画像処理装置を設けてレコーダ22に記録されている動画Mを処理するものであってもよいが、例えば、レコーダ22自体がそのような動画処理部の機能を有する構成であってもよい。   The detection of the repetition part of the original moving image (M) and the division processing into the partial moving image are performed by the moving image processing unit. The moving image processing unit may be a unit that processes the moving image M recorded in the recorder 22 by providing an independent stand-alone image processing device. A configuration having a function may be used.

この動画処理部を実現するレコーダ22とは別の画像処理装置、あるいは動画処理部の機能を有するレコーダ22は、例えば図16のように構成することができる。以下では、図16の制御系はレコーダ22として構成される場合を例に説明する。   An image processing device different from the recorder 22 that realizes the moving image processing unit or the recorder 22 having the function of the moving image processing unit can be configured as shown in FIG. 16, for example. Hereinafter, a case where the control system of FIG. 16 is configured as the recorder 22 will be described as an example.

図16は、原動画(M)の繰り返し部分の検出と、部分動画への分割処理を行う動画処理部としての画像処理装置の構成の一例を示している。図16の制御系は、主制御手段としてのCPU601、記憶装置としてのROM602、およびRAM603を備えたPCハードウェアなどによって構成することができる。ROM602には、後述する製造手順を実現するためのCPU601の制御プログラムや定数情報などを格納しておくことができる。また、RAM603は、その制御手順を実行する時にCPU601のワークエリアなどとして使用される。   FIG. 16 illustrates an example of a configuration of an image processing apparatus as a moving image processing unit that detects a repeated portion of the original moving image (M) and performs a division process into partial moving images. The control system in FIG. 16 can be constituted by PC hardware including a CPU 601 as main control means, a ROM 602 as a storage device, and a RAM 603. The ROM 602 can store a control program of the CPU 601 and constant information for realizing a manufacturing procedure described later. The RAM 603 is used as a work area of the CPU 601 when executing the control procedure.

また、図16の制御系には、外部記憶装置606が接続されている。外部記憶装置606は、HDDやSSD、ネットワークマウントされた他のシステムの外部記憶装置などから構成される。例えば、動画M(図2)は、この外部記憶装置606に記録(録画)することができる。   An external storage device 606 is connected to the control system of FIG. The external storage device 606 includes an HDD, an SSD, and an external storage device of another system mounted on a network. For example, the moving image M (FIG. 2) can be recorded (recorded) in the external storage device 606.

本実施形態の制御手順(例えば図8)を実現するためのCPU601の制御プログラムは、上記の外部記憶装置606や、ROM602の(例えばEEPROM領域)のような記憶部に格納しておくことができる。その場合、後述の制御手順を実現するためのCPU601の制御プログラムは、ネットワークインターフェース607を介して、上記の各記憶部に供給し、また新しい(別の)プログラムに更新することができる。あるいは、後述の制御手順を実現するためのCPU601の制御プログラムは、各種の磁気ディスクや光ディスク、フラッシュメモリなどの記憶手段と、そのためのドライブ装置を経由して、上記の各記憶部に供給し、またその内容を更新することができる。上述の制御手順を実現するためのCPU601の制御プログラムを格納した状態における各種の記憶手段、記憶部、ないし記憶デバイスは、本発明の制御手順を格納したコンピュータ読み取り可能な記録媒体を構成することになる。   A control program of the CPU 601 for realizing the control procedure (for example, FIG. 8) of the present embodiment can be stored in the above-described external storage device 606 or a storage unit such as the ROM 602 (for example, an EEPROM area). . In this case, a control program of the CPU 601 for realizing a control procedure described later can be supplied to each of the above-described storage units via the network interface 607 and updated to a new (another) program. Alternatively, a control program of the CPU 601 for realizing a control procedure to be described later is supplied to each of the above storage units via various storage means such as a magnetic disk, an optical disk, and a flash memory, and a drive device therefor. Also, the contents can be updated. Various storage units, storage units, or storage devices in a state in which the control program of the CPU 601 for realizing the above control procedure is stored constitute a computer-readable recording medium storing the control procedure of the present invention. Become.

図16の制御系がレコーダ22として構成されている場合、CPU601には、カメラ21は、例えばネットワークインターフェース607、ネットワーク608を介して接続される。ネットワークインターフェース607は、例えばIEEE 802.3のような有線通信、IEEE 802.11、802.15のような無線通信による通信規格を用いて構成することができる。ネットワークインターフェース607は、例えば生産ラインに生産制御、管理のために配置されたPLC11のような統轄制御装置や、管理サーバなどとの間の通信にも用いることができる。   When the control system in FIG. 16 is configured as the recorder 22, the camera 21 is connected to the CPU 601 via, for example, a network interface 607 and a network 608. The network interface 607 can be configured using a communication standard based on wired communication such as IEEE 802.3 and wireless communication such as IEEE 802.11 and 802.15. The network interface 607 can also be used for communication with a supervisory control device such as a PLC 11 arranged for production control and management on a production line, a management server, and the like.

図16の監視装置では、UI装置(ユーザーインターフェース装置)として、操作部604、および表示装置605が接続されている。操作部604は、ハンディターミナルのような端末、あるいはキーボード、ジョグダイアル、ポインティングデバイスなどのデバイス(あるいはそれらを備えたから成る制御端末)などによって構成することができる。表示装置605には、例えば液晶方式の他、後述するデータ表示、あるいはそれに類似の表示画面を表示出力できるものであれば任意の方式のディスプレイ装置を用いることができる。   In the monitoring device of FIG. 16, an operation unit 604 and a display device 605 are connected as a UI device (user interface device). The operation unit 604 can be configured by a terminal such as a handy terminal, a device such as a keyboard, a jog dial, and a pointing device (or a control terminal including the same). As the display device 605, a display device of any type can be used as long as it can display and output a data display described later or a display screen similar thereto, in addition to a liquid crystal type, for example.

上記のように構成された動画処理部において行う原動画(M)の繰り返し部分の検出と、部分動画への分割処理は、いくつかの手法が考えられる。   Several methods are conceivable for the detection of the repeated portion of the original moving image (M) and the division process into the partial moving image performed by the moving image processing unit configured as described above.

図13は、演繹的アルゴリズムを用いて動画を分割する手法を示している。図13の左側は処理手順の流れを示したフローチャート、右側は取り扱われているデータを示している。本実施形態では、図13のような演繹的アルゴリズムを用いて動画を分割する手法を演繹手法と呼ぶ。図示の制御手順は、例えば上記のROM602や外部記憶装置606などにCPU601の制御プログラムとして格納しておくことができる。   FIG. 13 shows a technique for dividing a moving image using a deductive algorithm. The left side of FIG. 13 is a flowchart showing the flow of the processing procedure, and the right side shows the data being handled. In the present embodiment, a technique for dividing a moving image using a deductive algorithm as shown in FIG. 13 is referred to as a deductive technique. The illustrated control procedure can be stored as a control program of the CPU 601 in, for example, the ROM 602 or the external storage device 606 described above.

図13の演繹手法において、ステップS51は、カメラ21およびレコーダ22が動画Mを記録する処理を示している。動画Mには、自動機1が工程繰り返し実行する様子が、少なくとも2回以上の複数回、含まれるものとする。   In the deduction method of FIG. 13, step S51 indicates a process in which the camera 21 and the recorder 22 record the moving image M. It is assumed that the moving image M includes at least two or more times that the automatic machine 1 repeatedly executes the process.

次に、ステップS52において、ステップS51で取得した動画Mから、代表値として輝度変化521を算出する。このステップS52では、例えば動画Mを静止画群として扱う。動画Mが持つ全静止画に対し、各静止画が持つ全画素の輝度値の平均値、すなわち平均輝度を算出する。この代表値としての平均輝度を時間方向に羅列すると、各静止画の代表値(平均輝度)の経時的な輝度変化521が得られる。   Next, in step S52, a luminance change 521 is calculated as a representative value from the moving image M acquired in step S51. In this step S52, for example, the moving image M is handled as a still image group. For all the still images of the moving image M, the average value of the luminance values of all the pixels of each still image, that is, the average luminance is calculated. When the average luminance as the representative value is listed in the time direction, a temporal change 521 in the representative value (average luminance) of each still image is obtained.

次に、ステップS53において、ステップS52で取得した輝度変化521に、ノイズフィルタを適用し、フィルタ後の輝度変化531を取得する。このステップS53のノイズフィルタ処理では、輝度変化521から、急峻過ぎる変化や、緩慢過ぎる変化を取り除く。急峻過ぎる変化を引き起こす要因として、カメラ21に混入するノイズ、カメラ21の撮影範囲にユーザが映り込んだ場合などが想定される。また、緩慢過ぎる変化を引き起こす要因として、自動機1が屋外の環境光に晒されている場合などが想定される。ステップS53のノイズフィルタ処理で適用するフィルタの種類や次数は、フィルタ後の輝度変化531に顕著な繰り返しが検出できるよう、例えば予め実験などを行って試行錯誤的に決定しておけばよい。   Next, in step S53, a noise filter is applied to the luminance change 521 obtained in step S52, and a filtered luminance change 531 is obtained. In the noise filter processing in step S53, a change that is too steep or a change that is too slow is removed from the luminance change 521. Factors that cause the change to be too steep are assumed to be noise mixed into the camera 21, a case where the user is reflected in the shooting range of the camera 21, and the like. In addition, as a factor that causes a change that is too slow, it is assumed that the automatic machine 1 is exposed to outdoor environmental light. The type and order of the filter applied in the noise filter processing in step S53 may be determined by trial and error, for example, by performing an experiment in advance so that remarkable repetition can be detected in the luminance change 531 after the filter.

ステップS54では、フィルタ後の輝度変化531の、輝度および時間の分解能を低減し、分解能低減後の輝度変化541を取得する。このように分解能を低減することにより、本実施例で循環検出(下記のステップS55)に用いるフロイドの循環検出法の確度が向上する。   In step S54, the luminance and time resolutions of the luminance change 531 after the filtering are reduced, and the luminance change 541 after the resolution reduction is obtained. By reducing the resolution in this way, the accuracy of the Floyd circulation detection method used for the circulation detection (Step S55 described below) in the present embodiment is improved.

次に、ステップS55において、ステップS54で取得した分解能低減後の輝度変化541にフロイドの循環検出法を適用する。フロイドの循環検出法は、周知のように任意の数列から繰り返しの数列を検出するアルゴリズムである。このフロイドの循環検出法によれば、分解能低減後の輝度変化541から、繰り返し部分Rを検出することができる。この繰り返し部分Rは、先の動画フレームにおいては、図8〜図9〜図10〜図11〜図12(〜図8)の部分に相当する。   Next, in step S55, the Floyd circulation detection method is applied to the luminance change 541 after the resolution reduction acquired in step S54. As is well known, the Floyd circulation detection method is an algorithm for detecting a repeated sequence from an arbitrary sequence. According to the Floyd circulation detection method, the repeated portion R can be detected from the luminance change 541 after the resolution is reduced. This repetition portion R corresponds to the portion of FIGS. 8 to 9 to 10 to 11 (FIG. 8) in the previous moving image frame.

ただし、フロイドの循環検出法は、無作為に適用すると、循環の初期値が一意に定まらない場合がある。例えば、繰り返し部分Rとして、図9〜図10〜図11〜図12〜図8(〜図9)の部分を検出する可能性がある。この対策として、自動機1の稼働開始と監視装置2の監視開始をタイミング調整することが考えられる。このタイミング調整には必ずしも同期信号を用いる必要はなく、例えば自動機1の稼働開始と監視装置2の監視開始を同一時刻に取る、といった手段によって可能である。ただし、同期信号を用いても構わないのはいうまでもなく、その場合には、例えば図16のネットワーク608を介して自動機1と監視装置2が同期信号を送受信してもよい。このようなタイミング調整により、動画Mに含まれる繰り返しの初期要素を図8の状態に特定することができ、フロイドの循環検出法により繰り返し部分Rとして図8〜図9〜図10〜図11〜図12(〜図8)の部分を検出することができる。   However, if the Floyd circulation detection method is applied at random, the initial value of the circulation may not be uniquely determined. For example, there is a possibility that the portions shown in FIGS. 9 to 10 to 11 to 12 to 8 (to 9) are detected as the repeated portion R. As a countermeasure, it is conceivable to adjust the timing of the start of operation of the automatic machine 1 and the start of monitoring of the monitoring device 2. It is not always necessary to use a synchronization signal for this timing adjustment. For example, it is possible to use a means such that the operation of the automatic machine 1 and the monitoring of the monitoring device 2 are started at the same time. However, it goes without saying that a synchronization signal may be used. In this case, for example, the automatic machine 1 and the monitoring device 2 may transmit and receive the synchronization signal via the network 608 in FIG. By such timing adjustment, the initial elements of repetition included in the moving image M can be specified as shown in FIG. 8, and the repetition portion R is determined as the repetition part R by the Floyd circulation detection method in FIGS. The portion shown in FIG. 12 (to FIG. 8) can be detected.

また、自動機1がなんらかの都合によって、所期の工程を実施できていない場合も考えられる。これは、例えば、図8〜図9〜図10〜図11〜図12(〜図8)に相当する1サイクルを実行した後、何らかの異常動作により非常停止するような場合である。このようなケースでは、ステップS55の処理では、繰り返し部分Rを検出できない。このように繰り返し部分Rを検出できない場合は、動画分割(S56)を実行せず、処理を終了する。あるいはさらに、レコーダ22が動画Mを削除不可に設定する制御を行ってもよい。このように繰り返し部分Rの不検出の場合、レコーダ22が動画Mを削除不可に設定する制御を行うことにより、事後、ユーザが自動機1の不都合を解析しやすくなる場合がある。   Further, the automatic machine 1 may not be able to carry out the intended process for some reason. This is the case where, for example, after executing one cycle corresponding to FIGS. 8 to 9 to 10 to 11 (to FIG. 8), an emergency stop is performed due to some abnormal operation. In such a case, the repetition portion R cannot be detected in the process of step S55. When the repeated portion R cannot be detected as described above, the process is terminated without executing the moving image division (S56). Alternatively, the recorder 22 may perform control to set the moving image M to be undeletable. As described above, in the case where the repeated portion R is not detected, the recorder 22 controls the moving image M so that the moving image M cannot be deleted, so that the user may be able to easily analyze the inconvenience of the automatic machine 1 after the fact.

また、繰り返し部分Rの検出の成否は、例えばユーザに1サイクルの工程の大まかな所要時間を入力させておき、繰り返し部分Rの所要時間が、ユーザが入力したものと、ほぼ同一になるか否かを判定することによって行ってもよい。   The success or failure of the detection of the repetition part R is determined by, for example, allowing the user to input a rough required time of one cycle of the process, and determining whether the required time of the repetition part R is substantially the same as that input by the user. It may be performed by determining whether

次に、繰り返し部分Rの検出が成功している場合には、ステップS56を実行する。このステップS56は、ステップS55で取得した繰り返し部分Rの境で動画Mを分割し、それぞれ繰り返し部分Rに相当する部分動画を得る処理である。動画群の各動画は、図8〜図9〜図10〜図11〜図12(〜図8)に相当する、自動機1の実施する1サイクル分の部分動画となる。   Next, when the detection of the repeated portion R is successful, step S56 is executed. This step S56 is a process of dividing the moving image M at the boundary of the repeated portion R acquired in step S55, and obtaining partial moving images corresponding to the repeated portions R respectively. Each moving image in the moving image group is a partial moving image for one cycle performed by the automatic machine 1, corresponding to FIGS. 8 to 9 to 10 to 11 (to FIG. 8).

図14は、分割された部分動画をユーザが確認(視聴)するのに適したユーザーインターフェースの一例を示している。レコーダ22が図16のような構成を有する場合、例えば表示装置605(と操作部604)によって図14に示すようなGUI(Graphical User Interface)を構成することができる。ただし、図14に示すようなGUIは、レコーダ22に接続可能な、レコーダ22ではない装置によって実施されるものであってもよい。   FIG. 14 illustrates an example of a user interface suitable for the user to confirm (view) the divided partial moving image. When the recorder 22 has a configuration as shown in FIG. 16, for example, a GUI (Graphical User Interface) as shown in FIG. 14 can be configured by the display device 605 (and the operation unit 604). However, the GUI as shown in FIG. 14 may be implemented by a device that is connectable to the recorder 22 and is not the recorder 22.

図14のGUIでは、ファイルマネージャー61を起動し、録画フォルダ62を開いている。ファイルマネージャー61は、各種のGUIを備えたOSにおいて用いられているものを流用して構わない。録画フォルダ62には、録画フォルダ62には、前述した演繹手法で分割した部分動画群63が、格納されている。部分動画群63のファイル名には、例えば同図に示すように、動画の先頭部の撮影時刻の情報を含めるようにすると、下記のようなユーザの解析作業が容易になる。なお、図14では部分動画群63のメタファ(GUI表示)は文字列による、例えばファイル名の表示である。しかしながら、部分動画群63の表示には、アイコン表示、あるいはアイコンとファイル名の組み合わせなどを用いてもよい。   In the GUI shown in FIG. 14, the file manager 61 is activated and the recording folder 62 is opened. The file manager 61 may use a file manager used in an OS having various GUIs. In the recording folder 62, a partial moving image group 63 divided by the above-described deduction method is stored. If the file name of the partial moving image group 63 includes information on the shooting time of the head of the moving image, for example, as shown in FIG. In FIG. 14, the metaphor (GUI display) of the partial moving image group 63 is a display of, for example, a file name by a character string. However, the partial moving image group 63 may be displayed using an icon display or a combination of an icon and a file name.

部分動画群63のうち、いずれかの動画をクリックすると、動画再生部64が起動する。この動画再生部64には、各種のGUIを備えたOSにおいて用いられている動画再生アプリケーションを流用して構わない。このようにファイルマネージャー61でファイルのメタファをクリックすると、そのファイルを扱うことができるアプリケーションが起動する、といった手続きも、各種のGUIを備えたOSにおいて一般に用いられている手法である。   When one of the moving images in the partial moving image group 63 is clicked, the moving image reproducing unit 64 is activated. For the moving image reproducing unit 64, a moving image reproducing application used in an OS having various GUIs may be used. A procedure in which an application capable of handling the file is started when the metaphor of the file is clicked on the file manager 61 in this manner is a method generally used in OSs having various GUIs.

部分動画群63の個々の部分動画は、上述のようにして繰り返し部分Rに相当する部分動画であるから、いずれの部分動画をクリックしても、動画65の再生は図8の画像から始まることになる。動画65の再生は、そのまま図9〜図10〜図11〜図12の各フレームへと続き、再度の図8ないしその直前で終わる。   Since each partial moving image of the partial moving image group 63 is a partial moving image corresponding to the repeated portion R as described above, the reproduction of the moving image 65 starts from the image of FIG. become. The reproduction of the moving image 65 continues to each frame of FIGS. 9 to 10 to 11 to 12 and ends again at or immediately before FIG.

このとき、部分動画群63の中に、自動機1の後段の工程で不良と判断された部品A+Bを製造した工程の、動画が含まれていたとする。さらに、当該の部品A+Bを製造した自動機1の工程の実施時刻が取得できるものとする。そして、既に繰り返し動作を単位として部分動画への分割が済んでいれば、図14のようなGUIを介して実施時刻に近い時刻情報を持った動画を選択し、再生させるのは極めて容易である。なお、長時間録画された生の原動画(M)であっても、時刻を特定してその位置から再生させることは不可能ではない。しかしながら、図14に示すようなGUIによれば、問題の1サイクルの部分動画の他、その前後の1ないし数個の別の1サイクルの部分動画を指定して直ちに再生させることができる。また、問題の1サイクルの部分動画の他、その前後などの関連する別の1サイクルの部分動画を同時に画面に並べて、同時再生することも極めて容易である。   At this time, it is assumed that the partial moving image group 63 includes a moving image of a process of manufacturing a component A + B determined to be defective in a subsequent process of the automatic machine 1. Further, it is assumed that the execution time of the process of the automatic machine 1 that manufactured the part A + B can be acquired. If division into partial moving images has already been completed in units of repetitive operations, it is extremely easy to select and reproduce a moving image having time information close to the execution time via a GUI as shown in FIG. . Note that it is not impossible to specify the time and reproduce the original moving image (M) recorded for a long time from that position. However, according to the GUI as shown in FIG. 14, in addition to the one-cycle partial moving image in question, one or several other one-cycle partial moving images before and after it can be designated and immediately reproduced. In addition, it is extremely easy to simultaneously arrange and reproduce the partial moving image in another cycle such as the one before and after the one in addition to the partial moving image in question.

なお、製造された部品A+Bにシリアルナンバーが記載されていて、シリアルナンバーから、当該の部品を製造した自動機1の工程の実施時刻が取得できる、あるいは直接製造時刻が刻印されるようになっている生産ラインは珍しくない。このような取り決めがある場合には、当該の部品を製造した自動機1の工程の実施時刻を取得するのは容易である。   The serial number is described on the manufactured part A + B, and the execution time of the process of the automatic machine 1 that manufactured the part can be obtained from the serial number, or the manufacturing time can be directly stamped. Production lines are not uncommon. If there is such an agreement, it is easy to obtain the execution time of the process of the automatic machine 1 that manufactured the part.

図14に示すようなGUIによれば、ユーザは、部分動画群63のうち、実施時刻に近い時刻情報を持った部分動画を再生することができる。従って、例えば部品A+Bを製造した特定の1サイクルの工程を確認したければ、容易に対応する部分動画を工程開始の時点から再生させることができる。そして、ユーザは、再生された部分動画を確認することにより、ロボット12による部品の把持がずれていた、組み付けのビス締結が不十分だった、などの不良の原因を、容易に確認できる。   According to the GUI as shown in FIG. 14, the user can reproduce a partial moving image having time information close to the execution time in the partial moving image group 63. Therefore, for example, if it is desired to confirm the process of a specific one cycle in which the component A + B is manufactured, the corresponding partial moving image can be easily reproduced from the start of the process. By checking the reproduced partial moving image, the user can easily confirm the cause of the defect such as the gripping of the component by the robot 12 being displaced or the screw fastening of the assembly being insufficient.

このように、本実施形態の自動機の監視装置によれば、撮(録)りっぱなしで撮影した長時間の原動画から、自動的な処理によって繰り返し部分を検出し、検出した繰り返し部分を単位として原動画を部分動画に分割することができる。このため、監視対象の自動機に専用の設計や改造を施さなくても、ユーザが見たい動画を見つけ易く、監視対象の解析を行うユーザの作業を好適に支援することができる。   As described above, according to the monitoring apparatus for an automatic machine of the present embodiment, a repetitive portion is detected by automatic processing from a long-time original moving image captured without taking a picture (recording), and the detected repetitive portion is defined as a unit. The original moving image can be divided into partial moving images. For this reason, the user can easily find a moving image that he / she wants to watch without performing a dedicated design or remodeling of the automatic machine to be monitored, and can appropriately support the user's work of analyzing the monitored object.

なお、以上の説明では、検出した繰り返し部分を単位として原動画Mを部分動画に分割する処理は、図14のファイルマネージャーの例で示したように、それぞれ別ファイルの部分動画ファイルとして生成されることを考えた。しかしながら、別ファイルの部分動画ファイルを生成するのではなく、原動画Mから検出した繰り返し部分を単位とするチャプタデータを作成することによって、部分動画を生成する手法を用いてもよい。この構成によると、原動画Mの他に別ファイルの部分動画ファイルを保存する方式に比して、外部記憶装置606の記憶容量を節約できる可能性がある。   In the above description, the process of dividing the original moving image M into partial moving images in units of the detected repetition portion is generated as partial moving image files of different files as shown in the example of the file manager in FIG. I thought that. However, instead of generating a partial moving image file of another file, a method of generating a partial moving image by generating chapter data in units of a repetition part detected from the original moving image M may be used. According to this configuration, there is a possibility that the storage capacity of the external storage device 606 can be saved as compared with a method of storing a partial moving image file of another file in addition to the original moving image M.

図15(a)〜(c)は、学習系および判別器を用いて、原動画の繰り返し部分を検出し、動画を分割する手法を示している。このような学習制御を用いて動画を分割する手法を、以後、学習手法と呼ぶ。本実施形態の学習手法では、例えば教師あり学習のような強化学習制御の手法を用いる。具体的なソフトウェアアーキテクチャとしては、人工ニューラルネットワークに類する構成を利用することができる。また、この種の強化学習では、判別の妥当性スコアを計算するためのQ学習テーブルなどが用いられることがある。   FIGS. 15A to 15C show a method of detecting a repeated portion of an original moving image and dividing the moving image using a learning system and a discriminator. A method of dividing a moving image using such learning control is hereinafter referred to as a learning method. In the learning method of the present embodiment, for example, a method of reinforcement learning control such as supervised learning is used. As a specific software architecture, a configuration similar to an artificial neural network can be used. In this type of reinforcement learning, a Q learning table or the like for calculating a validity score of discrimination may be used.

本実施形態の学習手法では、例えばカメラ21による撮影と同時に、例えば、繰り返し部分の1サイクルの先頭の状態に相当する状態を撮影した静止画を用いて、当該の工程の先頭部分を特定することにより繰り返し部分を検出する。   In the learning method of the present embodiment, for example, at the same time as the photographing by the camera 21, for example, the leading part of the process is specified by using a still image photographing a state corresponding to the leading state of one cycle of a repeated part. To detect a repeated portion.

即ち、本実施形態の学習手法では、原動画に撮影されている被写体の特定の状態を撮影した静止画群を用いた学習制御を介して、原動画から切り出した静止画から前記特定の状態に対応する特定の静止画を識別する。そして、識別した特定の静止画の前記原動画における位置に基づき、原動画の繰り返し部分を検出し、検出した繰り返し部分を単位として原動画を前記部分動画に分割する。   That is, in the learning method of the present embodiment, the specific state of the subject photographed in the original moving image is changed from the still image cut out from the original moving image to the specific state through learning control using a group of still images photographed. Identify the corresponding specific still image. Then, based on the position of the identified specific still image in the original moving image, a repeated portion of the original moving image is detected, and the original moving image is divided into the partial moving images in units of the detected repeated portion.

図15(a)は、学習手法の第1の処理に相当する。図15(a)のステップS711は、自動機1の一連の工程の開始画像を判別できる判別器を人工ニューラルネットワークとして構成する処理である。   FIG. 15A corresponds to the first process of the learning method. Step S711 in FIG. 15A is a process of configuring a classifier capable of determining a start image of a series of steps of the automatic machine 1 as an artificial neural network.

図15(b)は、図15(a)のステップS711で作成する判別器721の構成と、ステップS711で用いる教師静止画群722、教師出力群723との入出力関係を示している。   FIG. 15B shows the configuration of the discriminator 721 created in step S711 of FIG. 15A and the input / output relationship between the teacher still image group 722 and the teacher output group 723 used in step S711.

判別器721は、人工ニューラルネットワークとして構成することができる。判別器721は、例えば、入力層721i、中間層721m、出力層721oから成る。例えば、入力層721iに静止画を入力すると、中間層721mによる抽象的な情報処理を経て、出力層721oが教師出力群723に対してyesかnoの情報を出力する。判別器721のネットワーク形状は、要求される性能に応じて、作為的に設計しておく。なお、図15(b)の判別器721のネットワーク構成は一例であって、他のネットワーク構成を用いても構わない。   The discriminator 721 can be configured as an artificial neural network. The discriminator 721 includes, for example, an input layer 721i, an intermediate layer 721m, and an output layer 721o. For example, when a still image is input to the input layer 721i, the output layer 721o outputs yes or no information to the teacher output group 723 through abstract information processing by the middle layer 721m. The network shape of the discriminator 721 is designed artificially according to the required performance. Note that the network configuration of the discriminator 721 in FIG. 15B is an example, and another network configuration may be used.

教師静止画群722は、予め自動機1をカメラ21が撮影した動画Mから切り出した、少なくとも図8〜図12の画像を含む静止画群である。教師静止画群722を取得する場合には、光や部品の条件を様々に変えながら撮影すると、ロバスト性の高い判別器721を取得できる可能性がある。また、教師静止画群722は、望ましい判別器721を取得するのに十分な枚数、用意する必要がある。   The teacher still image group 722 is a still image group including at least the images of FIGS. 8 to 12 cut out from the moving image M captured by the camera 21 of the automatic machine 1 in advance. When acquiring the teacher still image group 722, there is a possibility that a highly robust discriminator 721 can be acquired by photographing while changing the conditions of light and components in various ways. In addition, it is necessary to prepare a sufficient number of teacher still image groups 722 to acquire the desired classifier 721.

教師出力群723は、予め教師静止画群722をユーザが見て、例えば工程の先頭の図8の画像に類似する画像にはyes、それ以外の画像にはnoの判別結果を回答させ、その結果を集積したデータである。もちろん、工程の先頭は必ずしも図8の画像である必要はなく、ユーザの意図により、図9〜図12の画像を用いて教師出力群723が作成されていてもよい。   The teacher output group 723 allows the user to look at the teacher still image group 722 in advance and, for example, answer yes for an image similar to the image in FIG. 8 at the beginning of the process and answer no for other images. This is data that accumulates results. Of course, the beginning of the process does not necessarily need to be the image of FIG. 8, and the teacher output group 723 may be created using the images of FIGS.

図15の学習手法では、実際の監視工程に先立ち、教師静止画群722と教師出力群723を用いて、判別器721を学習させる。具体的に、教師静止画群722のいずれの静止画を入力しても、教師出力群723と等しい値が出力されるまで、判別器721のネットワークの接続に係る重みを操作する。この学習工程には適宜、バックプロパゲーションやオートエンコーダーといった技術を用いることができる。判別器721は、このような学習工程を経て、教師静止画群722に含まれない、新規の画像も、例えばターゲットである図8の画像に類似する画像か否か識別できるようになる。   In the learning method of FIG. 15, the discriminator 721 is trained using the teacher still image group 722 and the teacher output group 723 prior to the actual monitoring process. Specifically, regardless of which still image of the teacher still image group 722 is input, the weight of the discriminator 721 related to the network connection is operated until a value equal to the teacher output group 723 is output. In this learning step, a technique such as back propagation or an auto encoder can be used as appropriate. Through such a learning process, the discriminator 721 can identify whether a new image that is not included in the teacher still image group 722 is an image similar to, for example, the target image in FIG.

図15(c)は、学習手法の第2の処理で、動画の撮影と同期して、撮影されている被写体が実行している繰り返し部分の先頭を逐次検出する手続を含む。図15(c)の処理では、第1の処理(学習工程)で作成した判別器721を用いて、繰り返し部分の先頭を逐次検出することにより、部分動画を分割、ないしは少なくともその分割位置を特定する。なお、図15(c)の処理は、1つの繰り返し部分に相当する部分動画を1つ撮影、記録するループ処理として記述されている。   FIG. 15C shows a second process of the learning method, which includes a procedure for sequentially detecting the head of a repetitive portion being executed by a subject being photographed in synchronization with the photographing of a moving image. In the process of FIG. 15C, the partial moving image is divided, or at least the division position is specified, by sequentially detecting the beginning of the repetitive portion using the discriminator 721 created in the first process (learning step). I do. Note that the process of FIG. 15C is described as a loop process of photographing and recording one partial moving image corresponding to one repeated portion.

まず、ステップS731において、カメラ21およびレコーダ22が部分動画の撮影を開始する。この学習手法では、長時間動画の全体の撮影の終了を待たずとも、動画の分割に必要な処理を実行できる。   First, in step S731, the camera 21 and the recorder 22 start capturing a partial moving image. In this learning method, it is possible to execute the processing required for dividing the moving image without waiting for a long time until the end of capturing the entire moving image.

次に、ステップS732において、撮影中の動画から、ほぼ最新の静止画を1枚、抽出する。この静止画を以下では静止画Iという。   Next, in step S732, one almost latest still image is extracted from the moving image being captured. This still image is hereinafter referred to as a still image I.

続いて、ステップS733では、静止画Iに対して判別器721を適用し、静止画Iが1サイクルの繰り返し部分の先頭に類似する画像であるか否かを、判別させる。ステップS733で、静止画Iが、図8に類似すると判別されなかった場合は、ステップS732に復帰し、その場合には、例えば撮影した画像は記録しない。   Subsequently, in step S733, the discriminator 721 is applied to the still image I to determine whether or not the still image I is an image similar to the head of a repeated part of one cycle. If it is not determined in step S733 that the still image I is similar to FIG. 8, the process returns to step S732, in which case, for example, a captured image is not recorded.

ステップS733で、静止画Iが、図8の画像に類似すると判別されると、ステップS734で当該の部分動画の撮影を終了する。ステップS734で、動画Mの撮影は終了するが、即座にステップS731に回帰し、後続の部分動画の撮影が開始される。なお、図15の処理においても、部分動画は部分動画ファイルとして記録してもよく、また、チャプタデータの生成によって部分動画を画成してもよい。   If it is determined in step S733 that the still image I is similar to the image in FIG. 8, the shooting of the partial moving image ends in step S734. In step S734, the shooting of the moving image M ends, but the process immediately returns to step S731 to start shooting of the subsequent partial moving image. In the process of FIG. 15, the partial moving image may be recorded as a partial moving image file, or the partial moving image may be defined by generating chapter data.

以上、説明した学習手法は、前述の演繹手法と異なり、動画Mに、自動機1が全工程を実施する様子が、2回以上含まれている必要がない。ここで、自動機1の実施するいずれか工程に、実施の失敗からの復帰を意図した、リトライ工程が組み込まれていたとする。リトライ工程とは、何らかの事情で、ロボット12が部品Aの把持に失敗した際、再度ロボット12が部品Aの把持に挑戦する、といった動作である。演繹手法では、輝度変化の繰り返しが大きく崩れるリトライ工程に対応し、望ましい動画の分割を実現することが容易でない。これに対して、学習手法では、自動機1がリトライ工程を実施した場合でも、予め用意した教師画像に含めた工程の先頭の状態などとの類似によって繰り返し部分の先頭を特定できるため、部分動画を生成できる可能性が高い、   In the learning method described above, unlike the above-described deduction method, it is not necessary for the moving image M to include the state in which the automatic machine 1 performs all the processes twice or more. Here, it is assumed that a retry step intended to return from a failure in the execution is incorporated in any of the steps performed by the automatic machine 1. The retry step is an operation in which, for some reason, when the robot 12 fails to grip the component A, the robot 12 again attempts to grip the component A. The deduction method corresponds to a retry process in which the repetition of the luminance change is largely broken, and it is not easy to realize the desired moving image division. On the other hand, in the learning method, even when the automatic machine 1 performs the retry process, the head of the repeated part can be specified by analogy with the state of the head of the process included in the prepared teacher image. Is likely to be generated,

ユーザは、図15の学習手法により得られた部分動画群も、上述の図14と同様のユーザーインターフェースを用いて選択し、また再生させることができる。本実施形態においても、監視対象の自動機に専用の設計や改造を施さなくても、ユーザは、見たい動画を見つけ易く、監視対象のシステムを解析するユーザを良好に支援することができる。   The user can also select and reproduce the partial moving image group obtained by the learning method in FIG. 15 using the same user interface as in FIG. 14 described above. Also in the present embodiment, the user can easily find a desired moving image and can assist the user who analyzes the system to be monitored satisfactorily without making a dedicated design or modification for the automatic machine to be monitored.

本発明は、上述の実施例の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. Processing can also be realized. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.

また、以上では、物品を生産する生産ライン、特に生産ラインに配置された自動機を監視する構成を例示した。しかしながら、上述の原動画の繰り返し部分を検出し、検出した繰り返し部分を単位として原動画を部分動画に分割する技術は、監視対象の如何に拘らず種々の監視対象を撮影した動画に対して実施することができる。   In the above description, a configuration for monitoring a production line for producing articles, particularly an automatic machine arranged on the production line has been described. However, the above-described technology of detecting a repeated portion of the original moving image and dividing the original moving image into partial moving images in units of the detected repeated portion is applied to moving images obtained by shooting various monitoring targets regardless of the monitoring target. can do.

1…自動機、2…監視装置、11…PLC、12…ロボット、13…供給ストッカ、14…排出ストッカ、15…作業台、21…カメラ、22…レコーダ、601…CPU、602…ROM、603…RAM、604…操作部、605…表示装置、606…外部記憶装置、A、B…部品。   DESCRIPTION OF SYMBOLS 1 ... Automatic machine, 2 ... Monitoring device, 11 ... PLC, 12 ... Robot, 13 ... Supply stocker, 14 ... Discharge stocker, 15 ... Work table, 21 ... Camera, 22 ... Recorder, 601 ... CPU, 602 ... ROM, 603 RAM RAM, 604 操作 operation unit, 605 表示 display device, 606 外部 external storage device, A, B 部品 parts.

Claims (15)

カメラと、
前記カメラで撮影した動画を記録する記録装置と、
前記カメラが撮影した原動画から繰り返し部分を検出し、検出した繰り返し部分を単位として前記原動画を部分動画に分割する動画処理部と、を備えた監視装置。
Camera and
A recording device for recording a moving image taken by the camera,
A monitoring apparatus comprising: a moving image processing unit that detects a repeated portion from an original moving image captured by the camera and divides the original moving image into partial moving images in units of the detected repeated portion.
請求項1に記載の監視装置において、前記原動画の前記繰り返し部分は、特定の動作を繰り返す被写体が撮影されている前記原動画の部分である監視装置。   2. The monitoring apparatus according to claim 1, wherein the repeated portion of the original moving image is a portion of the original moving image in which a subject that repeats a specific operation is captured. 3. 請求項1または2に記載の監視装置において、前記部分動画が前記繰り返し部分をそれぞれ記録した複数の部分動画ファイルとして生成される監視装置。   3. The monitoring device according to claim 1, wherein the partial moving image is generated as a plurality of partial moving image files each recording the repeated portion. 請求項1または2に記載の監視装置において、前記部分動画が、前記原動画の前記繰り返し部分に対応するチャプタデータを生成することにより生成される監視装置。   The monitoring device according to claim 1, wherein the partial moving image is generated by generating chapter data corresponding to the repeated portion of the original moving image. 請求項1から4のいずれか1項に記載の監視装置において、特定の前記部分動画をユーザが指定するための操作手段と、動画再生装置と、を備え、前記操作手段により指定された特定の前記部分動画を前記動画再生装置により再生させる監視装置。   The monitoring device according to any one of claims 1 to 4, further comprising: an operation unit for allowing a user to specify the specific partial moving image; and a moving image reproducing device, wherein the specific unit specified by the operation unit is provided. A monitoring device for reproducing the partial moving image by the moving image reproducing device. 請求項1から5のいずれか1項に記載の監視装置において、前記動画処理部は、前記原動画から切り出した複数の静止画からそれぞれ代表値を算出し、前記代表値の経時的な変化に対してフロイドの循環検出法を適用することにより、原動画の繰り返し部分を検出する監視装置。   6. The monitoring device according to claim 1, wherein the moving image processing unit calculates a representative value from each of a plurality of still images cut out from the original moving image, and calculates a change in the representative value over time. 7. A monitoring device that detects repeated parts of the original moving image by applying the Floyd circulation detection method. 請求項6に記載の監視装置において、前記代表値が、前記静止画の全画素の平均輝度である監視装置。   7. The monitoring device according to claim 6, wherein the representative value is an average luminance of all pixels of the still image. 請求項1から5のいずれか1項に記載の監視装置において、前記動画処理部は、前記原動画に撮影されている被写体の特定の状態を撮影した静止画群を用いた学習制御を介して、前記原動画から切り出した静止画から前記特定の状態に対応する特定の静止画を識別し、識別した特定の静止画の前記原動画における位置に基づき、原動画の繰り返し部分を検出し、検出した繰り返し部分を単位として前記原動画を前記部分動画に分割する監視装置。   The monitoring device according to claim 1, wherein the moving image processing unit performs learning control using a group of still images obtained by capturing a specific state of a subject captured in the original moving image. Identifying a specific still image corresponding to the specific state from a still image cut out from the original moving image, and detecting a repeated portion of the original moving image based on a position of the identified specific still image in the original moving image. A monitor that divides the original moving image into the partial moving images in units of the repeated portion. 請求項8に記載の監視装置において、前記学習制御が人工ニューラルネットワーク手段により実行される監視装置。   9. The monitoring device according to claim 8, wherein the learning control is performed by artificial neural network means. 請求項8に記載の自動機の監視装置において、前記学習制御が強化学習制御により実行される監視装置。   9. The monitoring device according to claim 8, wherein the learning control is performed by reinforcement learning control. 請求項1から10のいずれか1項に記載の監視装置を備え、前記カメラが生産機器を撮影するよう配置された生産ラインであって、前記動画処理部によって前記生産機器が繰り返し実行する生産動作が記録された前記部分動画が原動画から生成される生産ライン。   11. A production line comprising the monitoring device according to any one of claims 1 to 10, wherein the production line is arranged so that the camera photographs the production unit, and the production unit repeatedly executes the production unit by the moving image processing unit. A production line on which the partial moving image on which is recorded is generated from an original moving image. 請求項11に記載の生産ラインに配置された前記生産機器によって物品を製造する物品の製造方法。   An article manufacturing method for manufacturing an article using the production equipment arranged on the production line according to claim 11. カメラと、前記カメラで撮影した動画を記録する記録装置と、を備えた監視装置の制御方法において、
制御装置が、前記カメラが撮影した原動画の繰り返し部分を検出する検出工程と、
前記制御装置が、前記検出工程で検出された繰り返し部分を単位として前記原動画を部分動画に分割する動画処理工程と、を含む監視装置の制御方法。
In a control method of a monitoring device including a camera and a recording device that records a moving image captured by the camera,
A control device, a detection step of detecting a repeated portion of the original moving image captured by the camera,
A moving image processing step in which the control device divides the original moving image into partial moving images in units of a repetition part detected in the detection step.
請求項13に記載の監視装置の制御方法の各工程を前記制御装置に実行させるための制御プログラム。   A control program for causing the control device to execute each step of the monitoring device control method according to claim 13. 請求項14に記載の制御プログラムを格納したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium storing the control program according to claim 14.
JP2018145437A 2018-08-01 2018-08-01 Monitoring device, production line, and control method of monitoring device Pending JP2020022101A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018145437A JP2020022101A (en) 2018-08-01 2018-08-01 Monitoring device, production line, and control method of monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018145437A JP2020022101A (en) 2018-08-01 2018-08-01 Monitoring device, production line, and control method of monitoring device

Publications (2)

Publication Number Publication Date
JP2020022101A true JP2020022101A (en) 2020-02-06
JP2020022101A5 JP2020022101A5 (en) 2021-09-09

Family

ID=69588905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018145437A Pending JP2020022101A (en) 2018-08-01 2018-08-01 Monitoring device, production line, and control method of monitoring device

Country Status (1)

Country Link
JP (1) JP2020022101A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112021001006T5 (en) 2020-02-13 2023-04-13 Alps Alpine Co., Ltd. RECIPIENT

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7445460B2 (en) 2020-03-05 2024-03-07 株式会社Fuji work system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007323222A (en) * 2006-05-31 2007-12-13 Hitachi Ltd Working motion analysis method, working motion analysis apparatus and working motion analysis program
JP2012099977A (en) * 2010-10-29 2012-05-24 Keyence Corp Moving image capturing device, moving image observation method, moving image observation program, and computer-readable recording medium
WO2017017900A1 (en) * 2015-07-27 2017-02-02 パナソニックIpマネジメント株式会社 Face collation device, face collation system comprising same, and face collation method
JP2017157213A (en) * 2016-02-29 2017-09-07 富士通株式会社 Method and data processing apparatus for generating time series data sets for predictive analysis

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007323222A (en) * 2006-05-31 2007-12-13 Hitachi Ltd Working motion analysis method, working motion analysis apparatus and working motion analysis program
JP2012099977A (en) * 2010-10-29 2012-05-24 Keyence Corp Moving image capturing device, moving image observation method, moving image observation program, and computer-readable recording medium
WO2017017900A1 (en) * 2015-07-27 2017-02-02 パナソニックIpマネジメント株式会社 Face collation device, face collation system comprising same, and face collation method
JP2017157213A (en) * 2016-02-29 2017-09-07 富士通株式会社 Method and data processing apparatus for generating time series data sets for predictive analysis

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112021001006T5 (en) 2020-02-13 2023-04-13 Alps Alpine Co., Ltd. RECIPIENT

Similar Documents

Publication Publication Date Title
JP6551531B2 (en) Manufacturing status display system, manufacturing status display method, and manufacturing status display program
KR20180129651A (en) Image capturing apparatus, system, and method
JP6823661B2 (en) External work area monitoring system for component mounting machines
WO2017208391A1 (en) Monitoring apparatus and monitoring method
US20180286030A1 (en) System and method for testing an electronic device
JP2020022101A (en) Monitoring device, production line, and control method of monitoring device
CN110576435B (en) Locking control system, locking control method and storage device
CN108107226B (en) PPC software-based AOI multi-station system and method
TW201248513A (en) Board automatic test method and system
CN114080590A (en) Robotic bin picking system and method using advanced scanning techniques
JP5293270B2 (en) Imaging object selection device, imaging object selection device control method, imaging object selection device control program, and computer-readable recording medium recording the program
CN111385468A (en) Control device, control method thereof and industrial automation system
JP2021091078A (en) Controller for robot
JP6805199B2 (en) Equipment monitoring system
CN116519597B (en) Multi-axis system detection method, device, upper computer, medium and system
JP2018128729A (en) Process monitoring apparatus, and control method and program for process monitoring apparatus
JP2006332789A (en) Video photographing method, apparatus, and program, and storage medium for storing the program
JP2008217608A (en) Remote monitoring system and method of industrial machine
JP2019215225A (en) Image inspection system and method for controlling the same
US20170069354A1 (en) Method, system and apparatus for generating a position marker in video images
US20220174851A1 (en) Production data creation device and production data creation method
US11800230B2 (en) Image processing apparatus of reducing whole operation time of arrival inspection, image processing method, and storage medium
JP3295733B2 (en) Control operation analysis method and analysis apparatus using the same
CN105491872B (en) System for monitoring production devices of industrial products
TWI828545B (en) Flexible and intuitive system for configuring automated visual inspection system

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200206

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210727

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230221