JP2022186188A - Monitoring device and monitoring method - Google Patents

Monitoring device and monitoring method Download PDF

Info

Publication number
JP2022186188A
JP2022186188A JP2021094280A JP2021094280A JP2022186188A JP 2022186188 A JP2022186188 A JP 2022186188A JP 2021094280 A JP2021094280 A JP 2021094280A JP 2021094280 A JP2021094280 A JP 2021094280A JP 2022186188 A JP2022186188 A JP 2022186188A
Authority
JP
Japan
Prior art keywords
operator
predetermined
unit
image
procedure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021094280A
Other languages
Japanese (ja)
Inventor
雅己 岡本
Masami Okamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2021094280A priority Critical patent/JP2022186188A/en
Publication of JP2022186188A publication Critical patent/JP2022186188A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To provide a monitoring device and a monitoring method that improve the accuracy of determining whether an operator's behavior is appropriate or not.SOLUTION: A monitoring device 14 includes an image acquisition unit 21 that acquires an image including a part or all of an operator's hand and an operation target operated by the operator using an imaging device 11 attached to the arm of the operator who performs the operation, an operation determination unit 23 that determines whether the operation is a predetermined operation using the image acquired by the image acquisition unit 21, and a determination result output unit 25 that outputs a determination result from the operation determination unit 23.SELECTED DRAWING: Figure 1

Description

本発明は、所定の操作を行う操作者を監視するための装置及び方法に関するものである。 The present invention relates to an apparatus and method for monitoring an operator who performs a predetermined operation.

操作盤に配置された操作用品の操作を、操作盤における操作用品の座標と、オペレーター(以下、「操作者」とも言う。)によって操作用品が操作された時間とを関連付けて検出し、操作盤におけるオペレーターの視線の座標を、視線を検出した時間と関連付けて検出し、操作盤におけるオペレーターの操作位置の座標を示す画像を、画像を取得した時間と関連付けて取得し、オペレーターによって操作用品が操作された時に、オペレーターの視線と操作位置の座標が操作用品の座標にあったか否かを判定することで、オペレーターが、よそ見などをせずに、適切に行動したか否かを判定する方法が知られている(特許文献1)。 Detecting the operation of an operation article placed on the operation panel by associating the coordinates of the operation article on the operation panel with the time when the operation article was operated by an operator (hereinafter also referred to as "operator"), and detecting the operation of the operation article. The coordinates of the operator's line of sight are detected in association with the time when the line of sight was detected, an image showing the coordinates of the operator's operation position on the control panel is acquired in association with the time when the image was acquired, and the operation item is operated by the operator By determining whether or not the coordinates of the line of sight of the operator and the operation position match the coordinates of the operation article, it is possible to determine whether or not the operator has acted appropriately without looking away. (Patent Document 1).

特開2018-13958号公報JP 2018-13958 A

しかしながら、上記従来技術では、操作者の身体や操作用品が障害物となり、操作者の操作位置をカメラで検出できない場合には、操作者の行動が適切であったか否かを判定することができないため、判定精度が低下するという問題がある。 However, in the conventional technology described above, if the operator's body or the operation article becomes an obstacle and the operator's operation position cannot be detected by the camera, it cannot be determined whether the operator's action was appropriate. , there is a problem that the determination accuracy decreases.

本発明が解決しようとする課題は、操作者の行動が適切である否かの判定精度を高めた監視装置及び監視方法を提供することである。 A problem to be solved by the present invention is to provide a monitoring apparatus and a monitoring method that improve the accuracy of determining whether an operator's behavior is appropriate.

本発明は、操作を行う操作者の腕に取り付けられた撮像装置で、前記操作者の手の一部又は全部と、前記操作者により操作される操作対象とを含む画像を取得し、前記画像取得部により取得された前記画像を用いて、前記操作が所定操作であるか否かを判定することで上記課題を解決する。 The present invention is an imaging device attached to the arm of an operator who performs an operation, acquires an image including part or all of the operator's hand and an operation target operated by the operator, and obtains the image. The above problem is solved by determining whether or not the operation is a predetermined operation using the image acquired by the acquisition unit.

本発明によれば、操作者の行動の判定に適した画像を取得し、操作者の行動の判定精度を高めることができる。 According to the present invention, it is possible to obtain an image suitable for determining the behavior of the operator and improve the accuracy of determining the behavior of the operator.

本発明に係る監視装置を含む監視システムの実施形態の一つを示すブロック図である。1 is a block diagram showing one embodiment of a monitoring system including a monitoring device according to the present invention; FIG. 図1に示す撮像装置11、検出装置12、及び表示装置13の位置関係の一例を示す操作者の腕の側面図である。1. It is a side view of an operator's arm which shows an example of the positional relationship of the imaging device 11, the detection apparatus 12, and the display apparatus 13 which are shown in FIG. 図1の操作特定部にて用いられる学習済みモデルの一例を示す説明図である。FIG. 3 is an explanatory diagram showing an example of a learned model used in the operation specifying unit in FIG. 1; 所定手順の一例を示す説明図である。It is explanatory drawing which shows an example of a predetermined procedure. 図1の操作手順判定部にて用いられる学習済みモデルの一例を示す説明図である。FIG. 2 is an explanatory diagram showing an example of a learned model used in the operation procedure determination unit in FIG. 1; 図1の監視システムにおける情報処理の手順の一例を示すフローチャートである。2 is a flow chart showing an example of an information processing procedure in the monitoring system of FIG. 1;

以下、本発明に係る監視装置及び監視方法の実施形態を図面に基づいて説明する。 Embodiments of a monitoring device and a monitoring method according to the present invention will be described below with reference to the drawings.

[監視システム]
図1は、本発明に係る監視システム1を示すブロック図である。監視システム1は、ある操作対象に対してある操作を行う操作者の操作を監視する装置であり、たとえば、車両の組立て工場において、組立て作業に従事する作業員が、予め決められた手順に従って工具を操作したか否かを監視する場合、車両の販売店(以下、「ディーラー」とも言う。)において、車両の整備に従事する整備士が、マニュアルにて定められた手順に従って整備を行ったか否かを監視する場合などに用いることができる。監視システム1により操作を監視される操作者は特に限定されず、工場の作業員、ディーラーの整備士などが挙げられる。
[Monitoring system]
FIG. 1 is a block diagram showing a monitoring system 1 according to the invention. The monitoring system 1 is a device that monitors the operation of an operator who performs a certain operation on a certain operation target. is operated, the vehicle dealer (hereinafter also referred to as "dealer") has performed maintenance according to the procedures specified in the manual by the mechanic engaged in vehicle maintenance. It can be used, for example, to monitor whether Operators whose operations are monitored by the monitoring system 1 are not particularly limited, and examples thereof include factory workers and dealer mechanics.

図1に示すように、監視システム1は、撮像装置11、検出装置12、表示装置13、及び監視装置14を備える。監視システム1を構成する機器は、有線又は無線LANなどの公知の手段により、互いにデータの授受が可能な状態で接続されている。撮像装置11、検出装置12、及び表示装置13の数は、それぞれ、少なくとも1以上であれば特に限定されない。また、撮像装置11、検出装置12、及び表示装置13は、監視装置14と共に設けられている必要はなく、監視装置14から離れた場所に設置されていてもよい。たとえば、撮像装置11、検出装置12、及び表示装置13を、組立て工場の組立てラインの近くに設置し、監視装置14を、組立てラインから離れた中央制御室、又は組立て工場から離れた遠隔地のサーバーに設けてもよい。 As shown in FIG. 1 , the monitoring system 1 includes an imaging device 11 , a detection device 12 , a display device 13 and a monitoring device 14 . Devices that make up the monitoring system 1 are connected in a state in which data can be exchanged with each other by known means such as a wired or wireless LAN. The numbers of the imaging device 11, the detection device 12, and the display device 13 are not particularly limited as long as they are at least one or more. Also, the imaging device 11 , the detection device 12 , and the display device 13 do not have to be provided together with the monitoring device 14 , and may be installed at a location away from the monitoring device 14 . For example, the imager 11, detector 12, and display 13 may be installed near the assembly line of an assembly plant, and the monitoring device 14 may be installed in a central control room away from the assembly line, or in a remote location away from the assembly plant. Can be set on the server.

撮像装置11は、周囲の対象物の画像データを取得するための装置であり、たとえば、CCDなどの撮像素子を備えるカメラ、超音波カメラ、赤外線カメラなどのカメラである。対象物には、操作者に加えて、操作者の周囲に存在する物体が含まれる。対象物としては、たとえば、作業員の周囲に配置されたスイッチやタッチパネル、作業員が組立てているパーツや使用している工具、ディーラーの整備士が整備する車両など挙げられる。また、撮像装置11は、操作者の腕に取り付けられており、これにより、操作者が操作対象を操作する画像を確実に取得することができる。撮像装置11は、操作者の腕に取り付けるための取付け部を有し、たとえば、面ファスナーや粘着性のパッドを用いて、操作者の上腕の掌側に取り付けることができるようになっている。 The imaging device 11 is a device for acquiring image data of surrounding objects, and is, for example, a camera including an imaging element such as a CCD, an ultrasonic camera, an infrared camera, or the like. Objects include objects existing around the operator in addition to the operator. The objects include, for example, switches and touch panels placed around the worker, parts assembled by the worker, tools used by the worker, and vehicles maintained by dealer mechanics. Further, the imaging device 11 is attached to the arm of the operator, and thereby, the image of the operator operating the operation target can be reliably acquired. The imaging device 11 has a mounting portion for mounting on the operator's arm, and can be mounted on the palm side of the operator's upper arm using, for example, a hook-and-loop fastener or an adhesive pad.

検出装置12は、操作者の状況、及び操作者の周囲の状態を検出するための装置であり、あらゆるセンサーが含まれる。センサーとしては、たとえば、操作者の筋電位を測定する筋電計、操作者の周囲の音を音声データとして取得するマイクロフォン、操作者の身体の動作を検出するために操作者に取付けられた加速度計、操作者の周囲の温度を計測する温度計などが挙げられる。筋電計が備える電極は、針電極、表面電極、ワイヤー電極のいずれであってもよい。筋電計は、たとえば、粘着性のパッド又は面ファスナーにより、操作者の身体、特に、上腕及び/又は前腕を含む腕に取り付けられ、取り付けられた操作者の身体と接する部分の筋電位を測定する。 The detection device 12 is a device for detecting the operator's condition and the surrounding conditions of the operator, and includes all sensors. Sensors include, for example, an electromyograph that measures the operator's myoelectric potential, a microphone that acquires the surrounding sounds of the operator as audio data, and an accelerometer attached to the operator to detect the operator's body movements. and a thermometer that measures the temperature around the operator. The electrodes provided in the electromyograph may be needle electrodes, surface electrodes, or wire electrodes. An electromyograph is attached to an operator's body, particularly an arm including an upper arm and/or a forearm, for example, by an adhesive pad or hook-and-loop fastener, and measures the myoelectric potential of a portion of the attached operator's body that is in contact with the body. do.

マイクロフォンには、スタンドマイク、接話型マイク、ガンマイクなどが含まれ、無指向性であってもよく、指向性を有していてもよい。また、通信方式は、有線及び無線のいずれでもよい。マイクロフォンは、操作者の声及び操作者の周囲の人の声に加えて、操作者の動作に起因する音を取得する。ユーザーの動作に起因する音としては、作業員が操作したスイッチから発生する音、作業員がタッチパネルに触れた時にスピーカーから発生する音、作業員が複数のパーツを嵌合した時に発生する、パーツ同士がかみ合った音、ディーラーの整備士が使用する工具の作動音などが挙げられる。マイクロフォンは、組立て工場の組立てライン、作業台、及び作業員が使用する道具など、操作者の周囲の音を検出することができる位置に設置される。 Microphones include stand mics, close-talking mics, gun mics, etc., and may be omnidirectional or directional. Also, the communication method may be either wired or wireless. The microphone acquires sounds caused by the operator's actions in addition to the operator's voice and the voices of people around the operator. Sounds caused by user actions include sounds generated from switches operated by workers, sounds generated from speakers when workers touch the touch panel, and sounds generated when workers assemble multiple parts. Examples include the sound of gears meshing together and the sound of tools being used by dealer mechanics. Microphones are placed in locations where sounds around the operator can be detected, such as on the assembly line of the assembly plant, on the workbenches, and on the tools used by the workers.

加速度計は特に限定されないが、操作者の身体、特に、上腕及び/又は前腕を含む腕に取付けることができる大きさのものが好ましく、たとえば、MEMS(Micro Electro Mechanical Systems)を用いた小型の加速度計を用いることができる。温度計も特に限定されず、接触式の温度計であっても、赤外線を用いた非接触式の温度計であってもよい。監視装置14は、所定の時間間隔で、これらのセンサーから検出結果を取得する。 Although the accelerometer is not particularly limited, it is preferably of a size that can be attached to the operator's body, especially the arm including the upper arm and / or the forearm. can be used. The thermometer is also not particularly limited, and may be a contact thermometer or a non-contact thermometer using infrared rays. Monitoring device 14 acquires detection results from these sensors at predetermined time intervals.

表示装置13は、監視装置14にて監視された操作を操作者及び/又は監視者に通知するための装置である。監視者は、操作者の近くにいる必要はなく、工場の中央制御室や、工場から離れた遠隔地にいてもよい。表示装置13は、たとえば、液晶ディスプレイ、プロジェクターなどであり、スピーカーを備えていてもよい。表示装置13は、たとえば、組立て工場の作業員の作業場所など、操作者の近くであって、操作者に必要な情報を通知することができる位置、及び操作者から離れた場所にいる監視者に必要な情報を通知することができる位置などに設置される。また、表示装置13は、ウェアラブル端末として操作者に取付けられていてもよい。さらに、撮像装置11、検出装置12、表示装置13、及び監視装置14を一つのウェアラブル端末に統合し、操作者に取付けてもよい。 The display device 13 is a device for notifying an operator and/or a supervisor of operations monitored by the monitoring device 14 . The observer need not be near the operator and may be in the factory's central control room or in a remote location away from the factory. The display device 13 is, for example, a liquid crystal display, a projector, or the like, and may include a speaker. The display device 13 is located near the operator, such as a work place of a worker in an assembly plant, at which necessary information can be notified to the operator, and a monitor at a location away from the operator. It is installed at a position where it can notify necessary information to Moreover, the display device 13 may be attached to the operator as a wearable terminal. Furthermore, the imaging device 11, the detection device 12, the display device 13, and the monitoring device 14 may be integrated into one wearable terminal and attached to the operator.

撮像装置11、検出装置12、及び表示装置13の位置関係の一例を図2に示す。図2では、取り付け部11aを用いて、操作者の前腕部A1に撮像装置11が取り付けられており、操作者の上腕部A2には、粘着性のパッドを用い検出装置12が取り付けられている。また、操作者の手Hには、操作対象Oを保持されている。ここで、撮像装置11の視角がVAで示される範囲であるとすると、撮像装置11は、操作者の手Hの一部と、操作対象Oとを含む画像を撮像することができる。撮像装置11にて撮像された画像データと、検出装置12の検出結果は、無線通信により監視装置14に送出される。また、図2では、操作者の正面に表示装置13が設けられており、操作者は、表示装置13の表示を確認することができる。 An example of the positional relationship among the imaging device 11, the detection device 12, and the display device 13 is shown in FIG. In FIG. 2, the imaging device 11 is attached to the forearm A1 of the operator using the attachment portion 11a, and the detection device 12 is attached to the upper arm A2 of the operator using an adhesive pad. . Further, an operation target O is held in the hand H of the operator. Here, assuming that the viewing angle of the imaging device 11 is within the range indicated by VA, the imaging device 11 can capture an image including a portion of the operator's hand H and the operation target O. The image data captured by the imaging device 11 and the detection result of the detection device 12 are sent to the monitoring device 14 by wireless communication. In addition, in FIG. 2, the display device 13 is provided in front of the operator, and the operator can confirm the display of the display device 13 .

図1に戻り、監視装置14は、操作者が、ある操作を適切に実行したか否かを監視するための装置である。当該監視に用いる画像データ、及びセンサーの検出結果は、それぞれ、所定の時間間隔で、撮像装置11、及び検出装置12から取得される。監視装置14は、プロセッサ15を用いて、取得したデータの処理、操作が適切に実行されたか否かの判定、及び当該判定の結果の出力といった機能を実現する。プロセッサ15は、プログラムが格納されたROM(Read Only Memory)152と、ROM152に格納されたプログラムを実行することで、監視装置14として機能するための動作回路であるCPU(Central Processing Unit)151と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)153とを備える。 Returning to FIG. 1, the monitoring device 14 is a device for monitoring whether or not the operator has appropriately performed a certain operation. The image data and sensor detection results used for the monitoring are obtained from the imaging device 11 and the detection device 12, respectively, at predetermined time intervals. The monitoring device 14 uses the processor 15 to implement functions such as processing acquired data, determining whether or not an operation has been properly executed, and outputting the result of the determination. The processor 15 includes a ROM (Read Only Memory) 152 storing a program, and a CPU (Central Processing Unit) 151 which is an operating circuit for functioning as the monitoring device 14 by executing the program stored in the ROM 152. , and a RAM (Random Access Memory) 153 functioning as an accessible storage device.

[操作監視部]
本実施形態の監視装置14で用いるプログラムは、取得したデータの処理、操作が適切に実行されたか否かの判定、及び当該判定の結果の出力などの機能を監視装置14にて実現するための機能ブロックである操作監視部2を含む。操作監視部2は、撮像装置11から画像データを取得し、検出装置12から検出結果を取得し、取得したデータに基づいてユーザーが実行する操作を特定し、特定した操作が所定の手順で適切に実行されたか否かを判定し、当該判定結果を出力する機能を有する。操作監視部2は、図1に示すように、画像取得部21、操作特定部22、操作判定部23、操作手順判定部24、及び判定結果出力部25を備える。図1には、各部を便宜的に抽出して示す。
[Operation monitor]
The program used by the monitoring device 14 of this embodiment is a program for realizing functions such as processing of acquired data, determination of whether or not an operation has been properly executed, and output of the result of the determination. It includes an operation monitoring section 2 which is a functional block. The operation monitoring unit 2 acquires image data from the imaging device 11, acquires detection results from the detection device 12, specifies operations performed by the user based on the acquired data, and checks that the specified operations are appropriate according to a predetermined procedure. It has a function of determining whether or not it has been executed and outputting the determination result. The operation monitoring unit 2 includes an image acquisition unit 21, an operation specifying unit 22, an operation determination unit 23, an operation procedure determination unit 24, and a determination result output unit 25, as shown in FIG. In FIG. 1, each part is extracted and shown for convenience.

図1に示す監視装置14は上記の機能ブロックを全て備えるが、単一の監視装置14が全ての機能ブロックを備える必要はなく、上記の機能ブロックのうち一部のものを、監視システム1に含まれる他の機器、又は図示しない別の情報処理装置に設けてもよい。たとえば、図1の監視システム1において、判定結果出力部25を表示装置13に設けてもよい。この場合には、表示装置13のCPU、ROM、及びRAMを用いて判定結果出力部25の機能が実行されることになる。 Although the monitoring device 14 shown in FIG. 1 includes all of the above functional blocks, it is not necessary for a single monitoring device 14 to include all of the functional blocks. It may be provided in other equipment included or another information processing device (not shown). For example, in the monitoring system 1 of FIG. 1 , the determination result output section 25 may be provided in the display device 13 . In this case, the functions of the determination result output unit 25 are executed using the CPU, ROM, and RAM of the display device 13 .

また、各機能ブロックの処理の全てを単一の装置にて実行する必要はなく、データが授受できる状態で接続された複数の装置をまたいで、各機能ブロックの機能を実現してもよい。たとえば、図1の監視システム1において、操作特定部22にて実行される処理のうち、一部の処理を撮像装置11にて実行し、残りの処理を監視装置14にて実行するようにしてもよい。この場合には、撮像装置11のCPU、ROM、及びRAMを用いて、操作特定部22の機能を実現するための処理の一部が行われることになる。また、ほかの例として、操作判定部23及び/又は操作手順判定部24にて実行される処理のうち、一部の処理を撮像装置11にて実行し、残りの処理を監視装置14にて実行するようにしてもよい。 Moreover, it is not necessary to execute all the processing of each functional block in a single device, and the function of each functional block may be realized across a plurality of devices connected in a state in which data can be exchanged. For example, in the monitoring system 1 of FIG. 1, part of the processing performed by the operation specifying unit 22 is performed by the imaging device 11, and the remaining processing is performed by the monitoring device 14. good too. In this case, the CPU, ROM, and RAM of the imaging device 11 are used to perform part of the processing for realizing the function of the operation specifying unit 22 . As another example, among the processes executed by the operation determination unit 23 and/or the operation procedure determination unit 24, part of the processing is performed by the imaging device 11, and the remaining processing is performed by the monitoring device 14. may be executed.

以下、操作監視部2の各機能ブロックが果たす機能について説明する。 Functions performed by each functional block of the operation monitoring unit 2 will be described below.

画像取得部21は、操作を行う操作者と、前記操作者により操作される操作対象とを含む画像を取得する機能を有する。特に、本実施形態の画像取得部21は、操作者の腕に取り付けられた撮像装置11から画像データを取得し、取得する画像データには、操作者の手Hの一部又は全部と、操作者により操作される操作対象Oとが含まれる。操作者の手Hは右手であっても左手であってもよく、手Hの少なくとも一部が含まれていればよいが、特に、操作者の掌の一部又は全部と、操作対象Oとが画像に含まれていると、より正確に操作を判定することができる。 The image acquisition unit 21 has a function of acquiring an image including an operator performing an operation and an operation target operated by the operator. In particular, the image acquisition unit 21 of the present embodiment acquires image data from the imaging device 11 attached to the operator's arm, and the acquired image data includes part or all of the operator's hand H and the and an operation target O operated by a person. The operator's hand H may be either the right hand or the left hand, and at least a part of the hand H may be included. is included in the image, the operation can be determined more accurately.

操作者が行う操作は特に限定されず、操作者が操作対象に対して何らかの入力を行うためのあらゆる操作が含まれる。具体的には、組立て工場の作業員が、タッチパネルに触れて組み立てラインの機器の表示を変更する操作、組立て工場の作業員が、センサーに接続されたカプラーと、電子制御装置(ECU)に接続されたカプラーとを嵌合する操作、組立て工場の作業員が、工具を用いてボルトを締めて、エンジンブロックにエキゾーストマニホールドを取り付ける操作、ディーラーの整備士が、エンジンにスパークプラグを嵌める操作、ディーラーの整備士が、トルクレンチを用いてボルトを締める操作などを挙げることができる。 The operation performed by the operator is not particularly limited, and includes all operations for the operator to make some kind of input to the operation target. Specifically, the assembly factory worker touches the touch panel to change the display of the equipment on the assembly line, and the assembly factory worker connects the coupler connected to the sensor and the electronic control unit (ECU). An assembly factory worker uses a tool to tighten the bolts to attach the exhaust manifold to the engine block. A dealer's mechanic installs a spark plug in the engine. For example, a mechanic uses a torque wrench to tighten a bolt.

また、操作対象は特に限定されず、操作者が何らかの入力操作を行う対象となるあらゆる物体が含まれる。たとえば、ON/OFFを切り替えるスイッチ、タッチパネルのユーザーインターフェース、カプラーやエキゾーストマニホールドのようなパーツ、トルクレンチや電動ドライバーのような工具などが挙げられる。 Also, the operation target is not particularly limited, and includes any object that is the target of some input operation performed by the operator. Examples include ON/OFF switches, touch panel user interfaces, parts such as couplers and exhaust manifolds, and tools such as torque wrenches and electric screwdrivers.

さらに、画像取得部21は、撮像装置11から取得する画像の品質を変更することができ、操作者が操作をしていない間など、後述する操作判定部23にて画像データの処理を行わない間は、取得する時系列の画像(動画)のフレームレートを低下させてもよい。たとえば、後述する操作判定部23にて、操作者の手の動きが所定の動きに該当しないと判定された場合には、取得する時系列の画像のフレームレートを、所定のフレームレート(たとえば60fps)より下げてもよい。所定のフレームレートは、監視装置14にて操作の監視が適切に実行できる範囲内で、適宜の値を設定することができる。これに対して、操作者が実際に操作を行っている間は、取得する時系列の画像のフレームレートを、所定のフレームレートより上げてもよい。 Furthermore, the image acquisition unit 21 can change the quality of the image acquired from the imaging device 11, and the operation determination unit 23, which will be described later, does not process image data while the operator is not performing an operation. During this period, the frame rate of time-series images (moving images) to be acquired may be reduced. For example, when the operation determination unit 23, which will be described later, determines that the motion of the operator's hand does not correspond to the predetermined motion, the frame rate of the time-series images to be obtained is set to a predetermined frame rate (for example, 60 fps). ). An appropriate value can be set for the predetermined frame rate within a range in which the operation can be properly monitored by the monitoring device 14 . On the other hand, while the operator is actually performing the operation, the frame rate of the time-series images to be obtained may be increased from the predetermined frame rate.

操作特定部22は、画像取得部21にて取得された画像データから、操作者が実行する操作を特定する機能を有する。操作特定部22は、撮像装置11から取得した画像データについてパターンマッチングなどの解析を行い、画像データに含まれる対象物を分類する。次に、分類された対象物から操作者を選択し、画像データから抽出された操作者の手の部分に関するデータを取得する。これと同様に、分類された対象物から操作対象を選択し、画像データから抽出された操作対象に関するデータを取得する。そして、これらのデータから、操作者の手と操作対象との位置関係を認識し、認識した位置関係からユーザーの操作を特定する。 The operation identifying unit 22 has a function of identifying an operation performed by the operator from the image data acquired by the image acquiring unit 21 . The operation specifying unit 22 performs analysis such as pattern matching on image data acquired from the imaging device 11, and classifies objects included in the image data. Next, an operator is selected from the classified objects, and data relating to the part of the operator's hand extracted from the image data is obtained. Similarly, an operation target is selected from the classified objects, and data relating to the operation target extracted from the image data is acquired. Then, from these data, the positional relationship between the operator's hand and the operation target is recognized, and the user's operation is specified from the recognized positional relationship.

操作者の手Hと操作対象Oとの位置関係と、操作者が実行しようとしている操作との対応関係は、操作ごとに予め求められており、たとえばデータベース16のようなデータベースに格納されている。操作特定部22は、必要に応じて、データベース16から位置関係と操作の対応関係を取得することができる。操作特定部22は、データベース16から取得した対応関係に基づき、画像取得部21にて取得された画像データから、操作者が実行しようとしている操作を特定する。 A correspondence relationship between the positional relationship between the operator's hand H and the operation target O and the operation that the operator is about to perform is obtained in advance for each operation and stored in a database such as the database 16, for example. . The operation specifying unit 22 can acquire the correspondence relationship between the positional relationship and the operation from the database 16 as necessary. The operation identification unit 22 identifies an operation that the operator is about to perform from the image data acquired by the image acquisition unit 21 based on the correspondence acquired from the database 16 .

一例として、画像取得部21により取得された画像データに、工場の組立てラインで作業している作業員が、左手にカプラーを持って、別のカプラーに右手を延ばしている状態が含まれていた場合について説明する。この場合には、操作特定部22は、データベース16から取得した、位置関係と操作の対応関係から、カプラーに延びた右手とカプラーとの位置関係に対応する操作を検索する。当該動作に対応する操作として、すでに嵌合された一対カプラーから一方のカプラーを抜取る操作と、センサーに接続されたカプラーと、電子制御装置に接続されたカプラーとを嵌合する操作とが該当したとすると、操作特定部22は、作業員が左手にカプラーを持っていることから、当該位置関係は、センサーに接続されたカプラーと、電子制御装置に接続されたカプラーとを嵌合する操作に対応すると特定する。 As an example, the image data acquired by the image acquisition unit 21 includes a state in which a worker working on an assembly line in a factory holds a coupler in his left hand and extends his right hand toward another coupler. A case will be described. In this case, the operation specifying unit 22 searches for an operation corresponding to the positional relationship between the right hand extending to the coupler and the coupler from the correspondence relationship between the positional relationship and the operation acquired from the database 16 . The operations corresponding to this action include the operation of removing one coupler from a pair of couplers already engaged, and the operation of engaging the coupler connected to the sensor with the coupler connected to the electronic control unit. Then, since the operator holds the coupler in his left hand, the operation specifying unit 22 determines that the positional relationship is the operation of fitting the coupler connected to the sensor and the coupler connected to the electronic control unit. to be identified as corresponding to

また別の例として、画像取得部21により取得された画像データに、ディーラーの整備士が、左手にエンジンオイルを持って、エンジンルームに右手を延ばしている状態が含まれていた場合について説明する。この場合には、操作特定部22は、データベース16から取得した、位置関係と操作の対応関係から、エンジンルームに延びた右手と、エンジンルーム内の右手との位置関係に対応する操作を検索する。当該動作に対応する操作として、エンジンの冷却液を補充する操作と、エンジンオイルを補充する操作とが該当したとすると、操作特定部22は、作業員が左手にエンジンオイルを持っていることから、当該位置関係は、エンジンオイルを補充する操作に対応すると特定する。 As another example, a case where the image data acquired by the image acquisition unit 21 includes a state in which a dealer's mechanic holds engine oil in his left hand and extends his right hand into the engine room will be described. . In this case, the operation specifying unit 22 searches for an operation corresponding to the positional relationship between the right hand extending into the engine room and the right hand inside the engine room, based on the correspondence between the positional relationship and the operation acquired from the database 16. . Assuming that an operation for replenishing the coolant of the engine and an operation for replenishing the engine oil correspond to the operation corresponding to the operation, the operation specifying unit 22 determines that the operator holds the engine oil in the left hand. , the positional relationship is specified as corresponding to the operation of replenishing the engine oil.

また、操作特定部22は、画像取得部21にて取得された画像として、動画のような時系列の画像を用いて操作を特定してもよい。操作特定部22は、所定の時間間隔で画像取得部21から画像データを取得し、画像データを解析する。このように、所定の時間間隔を有する時系列の画像を用いることで、より正確に操作を特定することができる。当該時間間隔は、CPU151の計算能力に応じて適宜の間隔を設定することができる。これに代えて又はこれに加えて、操作特定部22は、検出装置12の検出結果を用いて操作を特定してもよい。たとえば、操作者の上腕に取り付けられた筋電計により検出された、操作者の筋電位の値、及び操作者の前腕に取付けられた加速度計により検出された加速度の値などから、操作者の動作を検出し、検出した動作を用いて操作を特定してもよい。 Further, the operation identifying unit 22 may identify the operation using time-series images such as moving images as the images acquired by the image acquiring unit 21 . The operation specifying unit 22 acquires image data from the image acquiring unit 21 at predetermined time intervals and analyzes the image data. In this way, by using time-series images having predetermined time intervals, the operation can be specified more accurately. The time interval can be appropriately set according to the computing power of the CPU 151 . Alternatively or additionally, the operation identifying unit 22 may identify the operation using the detection result of the detection device 12 . For example, the operator's myoelectric potential value detected by an electromyograph attached to the operator's upper arm and the operator's acceleration value detected by an accelerometer attached to the operator's forearm. A motion may be detected and the operation may be identified using the detected motion.

さらに、操作特定部22は、画像取得部21により取得された画像データから操作を特定するように学習された第1学習済みモデルを用いて操作を特定してもよい。学習済みモデルとは、ある入力データに対して適切な出力データが得られるように、予め機械学習により学習されたモデルであり、少なくとも、入力データから出力データを得るまでの演算を行うプログラムと、当該演算に用いられる重み付け係数(パラメータ)とを備える。本実施形態の第1学習済みモデルは、画像取得部21にて取得された画像データが入力データとして入力されると、当該入力データに基づいて、当該画像において操作者が実行しようとしている操作が特定され、出力データが出力されるようにコンピュータ(特に、プロセッサ15のCPU151)を機能させる。このような第1学習済みモデルを用いることで、予め対応関係が設定されていない位置関係を示す画像データについても、操作を特定することができる。 Furthermore, the operation identifying unit 22 may identify the operation using a first trained model that has been trained to identify the operation from the image data acquired by the image acquiring unit 21 . A trained model is a model that has been learned in advance by machine learning so that appropriate output data can be obtained for certain input data. At least, a program that performs operations from input data to output data, and a weighting coefficient (parameter) used for the calculation. When the image data acquired by the image acquisition unit 21 is input as input data, the first trained model of the present embodiment is based on the input data, and the operation that the operator is about to perform on the image is performed. The computer (in particular, the CPU 151 of the processor 15) is operated so that the specified output data is output. By using such a first learned model, it is possible to specify an operation even for image data indicating a positional relationship for which a correspondence relationship has not been set in advance.

本実施形態の第1学習済みモデルは特に限定されないが、たとえば、図3に示すような第1ニューラルネットワーク3である。第1ニューラルネットワーク3は、第1入力層31、第1中間層32、及び第1出力層33を備え、各層には少なくとも一つのニューロンが含まれている。第1入力層31には、画像取得部21にて取得された画像データ、及び検出装置12の検出結果のうち少なくとも一つを含む第1入力データ34が入力され、入力されたデータを第1中間層32に出力する。第1中間層32は、第1入力層31から入力されたデータから、操作者の手と操作対象との位置関係を抽出する。そして、抽出した位置関係に対応する操作を特定する。第1出力層33は、第1中間層32から入力されたデータを、特定された操作を含む第1出力データ35として出力する。 Although the first trained model of this embodiment is not particularly limited, it is, for example, the first neural network 3 as shown in FIG. The first neural network 3 comprises a first input layer 31, a first intermediate layer 32 and a first output layer 33, each layer containing at least one neuron. First input data 34 including at least one of the image data acquired by the image acquisition unit 21 and the detection result of the detection device 12 is input to the first input layer 31 , and the input data is input to the first input layer 31 . Output to intermediate layer 32 . The first intermediate layer 32 extracts the positional relationship between the operator's hand and the operation target from the data input from the first input layer 31 . Then, an operation corresponding to the extracted positional relationship is specified. The first output layer 33 outputs the data input from the first intermediate layer 32 as first output data 35 including the specified operation.

第1中間層32では、操作者が実行しようとしている操作を特定するための、操作者の手と操作対象との位置関係と、操作者が実行しようとしている操作との対応関係が、機械学習により確立されている。これにより、作業員の手とスイッチとの位置関係、作業員の手とタッチパネルのユーザーインターフェースとの位置関係、作業員の手とパーツとの位置関係、整備士の手と工具との位置関係などの操作者の手と操作対象との位置関係から、操作者が実行しようとしている操作を特定できる。当該対応関係には、操作者の手と操作対象との位置関係に加えて、検出装置12により検出された、操作者の周囲の状態などの複数の要因が関連つけられており、入力したデータに対して適切な操作が出力されるように、パラメータが設定されている。たとえば、作業員がカプラーを左右それぞれの手で把持していること、整備士が左手にエンジンオイルを持っていることなどは、操作を特定する際のパラメータとして考慮される。 In the first intermediate layer 32, the correspondence relationship between the positional relationship between the operator's hand and the operation target for specifying the operation that the operator is about to perform, and the operation that the operator is about to perform is machine-learned. established by As a result, the positional relationship between the worker's hand and the switch, the positional relationship between the worker's hand and the touch panel user interface, the positional relationship between the worker's hand and the part, the positional relationship between the mechanic's hand and the tool, etc. The operation that the operator is about to perform can be identified from the positional relationship between the operator's hand and the operation target. In addition to the positional relationship between the operator's hand and the operation target, the corresponding relationship is associated with a plurality of factors such as the operator's surrounding conditions detected by the detection device 12, and the input data The parameters are set so that the appropriate operation is output for For example, a worker holding a coupler in each hand, a mechanic holding engine oil in his left hand, etc. are taken into account as parameters in identifying operations.

また、上述した第1中間層32の対応関係は、予め機械学習により学習されていてもよいが、過去に第1ニューラルネットワーク3に入力した第1入力データ34、及び過去に第1ニューラルネットワーク3から出力された第1出力データ35を含む第1教師データ36により新たに学習させてもよいし、予め機械学習により学習された学習済みモデルをさらに学習させてもよい。当該学習は、操作特定部22が備える第1機械学習部22aより実行される。第1教師データ36は、たとえば、図1に示すデータベース16のようなデータベースに格納されており、必要に応じて取得することができる。過去の第1入力データ34と第1出力データ35との組み合わせを用いて学習することで、操作特定部22において、操作者の手と操作対象との位置関係に基づいた操作の特定がより正確になる。 Further, the correspondence relationship of the first intermediate layer 32 described above may be learned in advance by machine learning, but the first input data 34 input to the first neural network 3 in the past and the first neural network 3 in the past New learning may be performed using the first teacher data 36 including the first output data 35 output from the model, or a learned model that has been previously learned by machine learning may be further learned. The learning is performed by the first machine learning unit 22a included in the operation specifying unit 22. FIG. The first training data 36 is stored in a database such as the database 16 shown in FIG. 1, for example, and can be obtained as needed. By learning using a combination of the first input data 34 and the first output data 35 in the past, the operation identification unit 22 can more accurately identify the operation based on the positional relationship between the operator's hand and the operation target. become.

図1に戻り、操作判定部23は、画像取得部21により取得された画像データを用いて、操作判定部23により特定された操作が所定操作であるか否かを判定する機能を有する。所定操作とは、操作者が実行する操作として予め定められた操作であり、たとえば、工場の作業員であれば、センサーに接続されたカプラーと、電子制御装置(ECU)に接続されたカプラーとを嵌合する操作、及び工具を用いてボルトを締めて、エンジンブロックにエキゾーストマニホールドを取り付ける操作などの操作が、所定操作として予め設定されている。操作判定部23は、たとえば、画像取得部21にて取得された一連の画像を用いて、操作判定部23により特定された操作が、所定操作であるか否かを判定し、判定結果を操作手順判定部24及び判定結果出力部25に出力する。 Returning to FIG. 1 , the operation determination unit 23 has a function of determining whether or not the operation specified by the operation determination unit 23 is a predetermined operation using the image data acquired by the image acquisition unit 21 . A predetermined operation is an operation that is predetermined as an operation performed by an operator. For example, in the case of a factory worker, a coupler connected to a sensor and a coupler connected to an electronic control unit (ECU) and the operation of tightening the bolts using a tool to attach the exhaust manifold to the engine block are set in advance as predetermined operations. The operation determination unit 23 uses, for example, a series of images acquired by the image acquisition unit 21 to determine whether or not the operation specified by the operation determination unit 23 is a predetermined operation. It outputs to the procedure determination unit 24 and the determination result output unit 25 .

また、操作判定部23は、画像取得部21にて取得した画像から、操作者の手Hの動きを取得し、取得した動きが、所定の動きに該当するか否かを判定することができる。そして、当該手Hの動きが所定の動きに該当すると判定した場合は、手Hの動きが所定の動きであると判定された時から所定時間前の時間から、前記手の前記動きが所定の動きであると判定された時から所定時間後の時間までの間においてのみ、特定された操作が所定操作であるか否かを判定する。このように、操作の判定が必要になる、手Hの動きが所定の動きであると判定された時の前後の時間のみで判定を行うことができる。操作者の手Hの動きは、画像取得部21にて取得した画像データの解析、並びに操作者の上腕部A2に取り付けられた筋電計により検出された筋電位の値、及び操作者の前腕部A1に取付けられた加速度計により検出された加速度の値などから取得することができる。また、所定の動きは、所定操作の初期の手Hの動きとして、予め設定され、データベース16などに格納されている。操作判定部23は、必要に応じて、所定の動きのデータをデータベース16から取得する。 Further, the operation determination unit 23 can acquire the motion of the operator's hand H from the image acquired by the image acquisition unit 21 and determine whether or not the acquired motion corresponds to a predetermined motion. . Then, when it is determined that the movement of the hand H corresponds to the predetermined movement, the movement of the hand is determined to be the predetermined movement from a predetermined time before the time when the movement of the hand H is determined to be the predetermined movement. It is determined whether or not the identified operation is the predetermined operation only during the period from when it is determined to be the movement to when the predetermined time elapses. In this way, it is possible to perform the determination only at the time before and after the motion of the hand H is determined to be the predetermined motion, which requires the determination of the operation. The movement of the operator's hand H is determined by analysis of image data acquired by the image acquisition unit 21, myoelectric potential values detected by an electromyograph attached to the operator's upper arm A2, and the operator's forearm. It can be obtained from the value of the acceleration detected by the accelerometer attached to the portion A1. Further, the predetermined movement is set in advance as an initial movement of the hand H for the predetermined operation and stored in the database 16 or the like. The operation determination unit 23 acquires data of a predetermined movement from the database 16 as necessary.

操作手順判定部24は、操作特定部22にて特定された操作が所定操作に該当すると、操作判定部23において判定された場合に、所定操作が所定手順で実行されたか否かを判定する機能を有する。特に、操作手順判定部24は、画像取得部21にて取得された時系列の画像データを用いて、所定操作が所定手順で行われたか否かを判定する。所定手順とは、所定操作ごとに予め設定されており、データベース16のようなデータベースに格納されている。 The operation procedure determination unit 24 has a function of determining whether or not the predetermined operation has been executed according to a predetermined procedure when the operation determination unit 23 determines that the operation identified by the operation identification unit 22 corresponds to the predetermined operation. have In particular, the operation procedure determination unit 24 uses the time-series image data acquired by the image acquisition unit 21 to determine whether a predetermined operation has been performed according to a predetermined procedure. A predetermined procedure is preset for each predetermined operation and stored in a database such as the database 16 .

操作手順判定部24は、所定の時間間隔で、操作特定部22から特定された操作を取得し、画像データに含まれる操作者の手と操作対象との位置関係を把握する。そして、操作者の操作を時系列で把握し、都度、上述したような所定手順と、特定された操作とが合致しているか否かを判定する。操作手順判定部24は、特定された操作が完了するまでに、所定手順との差異がなかった場合は、所定操作が所定手順で実行されたと判定する。これに対して、特定された操作が所定手順と異なる場合、及び特定された操作が所定手順から逸脱した場合などは、所定操作が所定手順で実行されなかったと判定する。これらの判定結果は、判定結果出力部25に出力される。 The operating procedure determination unit 24 acquires the specified operation from the operation specifying unit 22 at predetermined time intervals, and grasps the positional relationship between the operator's hand and the operation target included in the image data. Then, the operator's operations are grasped in chronological order, and it is determined each time whether or not the predetermined procedure described above matches the specified operation. If there is no difference from the predetermined procedure by the time the identified operation is completed, the operating procedure determination unit 24 determines that the predetermined operation has been performed according to the predetermined procedure. On the other hand, if the identified operation is different from the predetermined procedure, or if the identified operation deviates from the predetermined procedure, it is determined that the predetermined operation has not been performed according to the predetermined procedure. These determination results are output to the determination result output unit 25 .

一例として、図4を用いて、所定操作が2つのカプラーを嵌合する操作である場合について説明する。図4では、作業員の左手に把持されたカプラーC1と、作業員の左手に把持されたカプラーC2とを嵌合し、カプラーC1とカプラーC2の嵌合部Zが適切に嵌合すると、作動音Sが発生するものとする。この場合の所定手順は、たとえば図4に示すように、ステップ1)作業員が左手と右手のそれぞれでカプラーC1、C2を把持し、ステップ2)カプラーC1をカプラーC2と組み合わせ、ステップ3)カプラーの嵌合部Zがかみ合い、カチッという作動音Sを発生させるまでカプラーC1、C2を互いに押込み、ステップ4)作動音Sが発生したらカプラーC1、C2から手を離すという4つのステップからなる手順である。操作手順判定部24は、所定の時間間隔で、操作特定部22から特定された操作を取得し、カプラーを嵌合する操作者の手とカプラーとの位置関係を把握する。そして、カプラーを嵌合する操作者がカプラーどのように操作しているのかを時系列で把握し、都度、上述したような4つのステップと、特定された操作とが合致しているか否かを判定する。 As an example, a case where the predetermined operation is an operation of fitting two couplers will be described with reference to FIG. In FIG. 4, the coupler C1 held by the left hand of the worker and the coupler C2 held by the left hand of the worker are fitted together, and when the fitting portion Z of the coupler C1 and the coupler C2 is properly fitted, the operation is performed. Suppose that a sound S is generated. The predetermined procedure in this case is, for example, as shown in FIG. The couplers C1 and C2 are pushed into each other until the fitting portion Z is engaged and a clicking sound S is generated, and step 4) when the operating sound S is generated, the couplers C1 and C2 are released. be. The operation procedure determining unit 24 acquires the specified operation from the operation specifying unit 22 at predetermined time intervals, and grasps the positional relationship between the coupler and the hand of the operator who engages the coupler. Then, how the operator who engages the coupler operates the coupler is grasped in chronological order, and each time, whether or not the four steps described above match the specified operation is checked. judge.

上述したステップに従ってカプラーの嵌合が完了した場合は、カプラーは所定手順に従って適切に嵌合されたと判定する。これに対して、ステップ3)におけるカプラーの押込みが足りず、適切にカプラーが嵌合しなかった場合には、カプラーは適切に嵌合されなかったと判定する。ここで、操作手順判定部24は、所定操作が所定手順で実行されたか否かを判定するときに、検出装置12の検出結果を用いてもよい。この場合であれば、たとえば、操作者の上腕に取り付けられた筋電計にて取得した筋電位の値、及び操作者の前腕加速度計に取付けられた加速度計にて取得した加速度の値などから、カプラーを嵌合する操作者の動作を検出し、操作手順判定部24の判定に用いてもよい。また、カプラーを嵌合する操作者の近傍に設置されたマイクロフォンにより、カプラーの嵌合部Zがかみ合ったときに発生する、カチッという作動音Sを検出し、操作手順判定部24の判定に用いてもよい。 If the coupler has been mated according to the steps described above, it is determined that the coupler has been properly mated according to the predetermined procedure. On the other hand, if the coupler was not properly fitted due to insufficient pushing of the coupler in step 3), it is determined that the coupler was not properly fitted. Here, the operation procedure determination unit 24 may use the detection result of the detection device 12 when determining whether or not the predetermined operation has been performed according to the predetermined procedure. In this case, for example, from the value of myoelectric potential obtained by an electromyograph attached to the upper arm of the operator and the value of acceleration obtained by an accelerometer attached to the forearm accelerometer of the operator Alternatively, the motion of the operator who engages the coupler may be detected and used for determination by the operation procedure determination unit 24 . In addition, a microphone installed near the operator who engages the coupler detects a click sound S that is generated when the engagement portion Z of the coupler is engaged, and the operation procedure determination unit 24 uses it for determination. may

また、別の例として、所定操作がエンジンオイルを補充する操作である場合について説明する。この場合、所定手順は、1)オイルフィラーキャップを外し、2)オイル注入口からエンジンオイルを注ぎ込み、3)オイルフィラーキャップを閉め、4)オイルレベルゲージでエンジンオイルの量を確認するという4つのステップからなる手順である。操作手順判定部24は、所定の時間間隔で、操作特定部22から特定された操作を取得し、オイルを補充する操作者の手と、エンジンオイル及びオイルレベルゲージとの位置関係を把握する。そして、オイルを補充する操作者がどのような操作をしているのかを時系列で把握し、都度、上述したような4つのステップと、特定された操作とが合致しているか否かを判定する。 As another example, a case where the predetermined operation is an operation to replenish engine oil will be described. In this case, the predetermined procedure consists of 1) removing the oil filler cap, 2) pouring engine oil from the oil inlet, 3) closing the oil filler cap, and 4) checking the amount of engine oil with the oil level gauge. It is a procedure consisting of steps. The operation procedure determining unit 24 acquires the specified operation from the operation specifying unit 22 at predetermined time intervals, and grasps the positional relationship between the hand of the operator who replenishes the oil, the engine oil, and the oil level gauge. Then, the operations performed by the operator who refills the oil are grasped in chronological order, and each time, it is determined whether or not the four steps described above match the specified operations. do.

上述したステップに従ってオイルを補充が完了した場合は、エンジンオイルは所定手順に従って適切に補充されたと判定する。これに対して、ステップ4)においてエンジンオイルの量を確認しなかった場合には、エンジンオイルが適切に補充されなかったと判定する。また、上述の例と同様に、操作手順判定部24は、所定操作が所定手順で実行されたか否かを判定するときに、検出装置12の検出結果を用いてもよい。この場合であれば、たとえば、操作者の上腕に取り付けられた筋電計にて取得した筋電位の値、及び操作者の前腕加速度計に取付けられた加速度計にて取得した加速度の値などから、オイルレベルゲージを把持する動作を検出し、操作手順判定部24の判定に用いてもよい。 If the oil has been replenished according to the steps described above, it is determined that the engine oil has been properly replenished according to the predetermined procedure. On the other hand, if the amount of engine oil is not confirmed in step 4), it is determined that the engine oil has not been properly replenished. Further, similarly to the above example, the operation procedure determination unit 24 may use the detection result of the detection device 12 when determining whether or not the predetermined operation has been performed according to the predetermined procedure. In this case, for example, from the value of myoelectric potential obtained by an electromyograph attached to the upper arm of the operator and the value of acceleration obtained by an accelerometer attached to the forearm accelerometer of the operator Alternatively, a motion of gripping the oil level gauge may be detected and used for determination by the operation procedure determination unit 24 .

さらに、操作手順判定部24は、画像取得部21にて取得された時系列の画像データ、及び/又は操作者の周囲の状態を検出する検出装置12の検出結果を用いて、所定操作が所定手順で行われたか否かを判定するように学習された第2学習済みモデルを用いて、所定操作が所定手順で行われたか否かを判定してもよい。本実施形態の第2学習済みモデルは、画像取得部21にて取得された時系列の画像データ、及び/又は操作者の周囲の状態を検出する検出装置12の検出結果が入力データとして入力されると、当該入力データに基づいて、当該画像において操作者が実行しようとしている操作が特定され、操作者が、特定された操作を所定手順で実行したか否かの判定結果を含む出力データが出力されるようにコンピュータ(特に、プロセッサ15のCPU151)を機能させる。このような第2学習済みモデルを用いることで、予め対応関係が設定されていない位置関係を示す画像データについても、操作が所定手順で実行されたか判定することができる。 Furthermore, the operation procedure determination unit 24 uses the time-series image data acquired by the image acquisition unit 21 and/or the detection result of the detection device 12 that detects the surrounding state of the operator to determine whether the predetermined operation is a predetermined operation. It may be determined whether or not the predetermined operation has been performed according to a predetermined procedure using a second trained model that has been trained to determine whether or not the operation has been performed according to a predetermined sequence. In the second trained model of the present embodiment, time-series image data acquired by the image acquisition unit 21 and/or detection results of the detection device 12 that detects the surrounding conditions of the operator are input as input data. Then, based on the input data, an operation that the operator is about to perform in the image is specified, and output data including a judgment result as to whether or not the operator has performed the specified operation in accordance with a predetermined procedure is generated. The computer (especially the CPU 151 of the processor 15) is operated to output. By using such a second trained model, it is possible to determine whether an operation has been performed according to a predetermined procedure even for image data indicating a positional relationship for which a correspondence relationship has not been set in advance.

第2学習済みモデルは特に限定されないが、たとえば、図5に示すような第2ニューラルネットワーク4である。第2ニューラルネットワーク4は、第2入力層41、第2中間層42、及び第2出力層43を備え、各層には少なくとも一つのニューロンが含まれている。第2入力層41には、画像取得部21にて取得された時系列の画像データ、及び検出装置12の検出結果のうち少なくとも一つを含む第2入力データ44が入力され、入力されたデータを第2中間層42に出力する。第2中間層42は、第2入力層41から入力されたデータから、操作者の手と操作対象との位置関係を抽出する。次に、抽出した位置関係に対応する操作を特定する。そして、特定した操作が所定操作に該当するか否かを判定し、特定した操作が所定操作に該当する場合には、所定操作が所定手順で行われたか否かを判定する。第2出力層43は、第2中間層42から入力されたデータを、所定操作が所定手順で行われたか否かの判定経緯を含む第2出力データ45として出力する。 Although the second trained model is not particularly limited, it is, for example, the second neural network 4 as shown in FIG. The second neural network 4 comprises a second input layer 41, a second intermediate layer 42 and a second output layer 43, each layer containing at least one neuron. Second input data 44 including at least one of the time-series image data acquired by the image acquisition unit 21 and the detection result of the detection device 12 is input to the second input layer 41, and the input data is output to the second intermediate layer 42 . The second intermediate layer 42 extracts the positional relationship between the operator's hand and the operation target from the data input from the second input layer 41 . Next, an operation corresponding to the extracted positional relationship is specified. Then, it is determined whether or not the specified operation corresponds to the predetermined operation, and if the specified operation corresponds to the predetermined operation, it is determined whether or not the predetermined operation has been performed according to the predetermined procedure. The second output layer 43 outputs the data input from the second intermediate layer 42 as second output data 45 including details of determination as to whether or not a predetermined operation has been performed according to a predetermined procedure.

第2中間層42では、上述した第1中間層32と同様に、操作者が実行しようとしている操作を特定するための、操作者の手と操作対象との位置関係と、操作者が実行しようとしている操作との対応関係が、機械学習により確立されている。当該対応関係には、操作者の手と操作対象との位置関係に加えて、検出装置12により検出された、操作者の周囲の状態などの複数の要因が関連つけられており、入力したデータに対して適切な操作が出力されるように、パラメータが設定されている。これに加えて、第2中間層42では、特定した操作が所定操作に該当する場合に、所定操作が所定手順で行われたか否かを判定するため、特定された操作と所定手順との対応関係が確立されている。具体的には、特定された操作を時系列に並べたデータと、所定手順の各ステップとの対応関係が機械学習により学習され、特定された操作と所定手順とが適切に対比できるように、必要なパラメータが設定されている。 In the second intermediate layer 42, similarly to the first intermediate layer 32 described above, the positional relationship between the operator's hand and the operation target and the positional relationship between the operator's hand and the operation target for specifying the operation that the operator is about to perform and the Machine learning has established a correspondence relationship with the operation of . In addition to the positional relationship between the operator's hand and the operation target, the corresponding relationship is associated with a plurality of factors such as the operator's surrounding conditions detected by the detection device 12, and the input data The parameters are set so that the appropriate operation is output for In addition to this, in the second intermediate layer 42, when the identified operation corresponds to the predetermined operation, it is determined whether the predetermined operation was performed according to the predetermined procedure. relationship is established. Specifically, machine learning learns the correspondence between the data in which the identified operations are arranged in chronological order and each step of the predetermined procedure, and the identified operations and the predetermined procedure can be appropriately compared. Required parameters are set.

また、上述した第2中間層42の対応関係は、予め機械学習により学習されていてもよいが、過去に第2ニューラルネットワーク4に入力した第2入力データ44、及び過去に第2ニューラルネットワーク4から出力された第2出力データ45を含む第2教師データ46により新たに学習させてもよいし、予め機械学習により学習された学習済みモデルをさらに学習させてもよい。当該学習は、操作手順判定部24が備える第2機械学習部24aより実行される。第2教師データ46は、たとえば、図1に示すデータベース16のようなデータベースに格納されており、必要に応じて取得することができる。過去の第2入力データ44と第2出力データ45との組み合わせを用いて学習することで、操作手順判定部24における、所定操作が所定手順で実行されたか否かの判定がより正確になる。 Further, the correspondence relationship of the second intermediate layer 42 described above may be learned in advance by machine learning, but the second input data 44 input to the second neural network 4 in the past and the second neural network 4 in the past A new learning may be performed using the second teacher data 46 including the second output data 45 output from the model, or a learned model previously learned by machine learning may be further learned. The learning is performed by the second machine learning section 24a included in the operating procedure determination section 24. FIG. The second teacher data 46 is stored in a database such as the database 16 shown in FIG. 1, for example, and can be obtained as needed. By learning using the combination of the past second input data 44 and the second output data 45, the operation procedure determination unit 24 can more accurately determine whether the predetermined operation has been performed according to the predetermined procedure.

図1に戻り、判定結果出力部25は、操作判定部23及び操作手順判定部24における判定結果を取得し、外部の機器に出力する機能を有し、特に、操作判定部23にて、操作者の実行する操作が所定操作ではないと判定された場合に、表示装置13に、操作が適切ではないことを出力する。また、操作手順判定部24にて、所定操作が所定手順で実行されなかったと判定された場合にも、表示装置13に、操作が適切ではないことを出力する。これらの判定結果を表示装置13に出力し、表示装置13に表示させることで、操作者及び/又は監視者に、所定操作が適切に実行されなかったことを通知することができる。 Returning to FIG. 1, the determination result output unit 25 has a function of acquiring determination results from the operation determination unit 23 and the operation procedure determination unit 24 and outputting them to an external device. When it is determined that the operation performed by the user is not the predetermined operation, it outputs to the display device 13 that the operation is inappropriate. Further, even when the operation procedure determination unit 24 determines that the predetermined operation has not been performed according to the predetermined procedure, it outputs to the display device 13 that the operation is not appropriate. By outputting these determination results to the display device 13 and displaying them on the display device 13, it is possible to notify the operator and/or the supervisor that the predetermined operation has not been properly executed.

なお、監視装置14の電源は、検出装置12の検出結果から、操作者が監視システム1の利用を開始したことを確認した後にONにされてもよい。また、操作判定部23及び操作手順判定部24の判定結果を、図示しないサーバーに出力してもよい。 Note that the power of the monitoring device 14 may be turned on after confirming that the operator has started using the monitoring system 1 based on the detection results of the detection device 12 . Also, the determination results of the operation determination unit 23 and the operation procedure determination unit 24 may be output to a server (not shown).

[操作検出システムにおける処理]
図6を参照して、監視装置14が情報を処理する際の手順を説明する。図6は、本実施形態の監視システム1における情報の処理を示すフローチャートの一例である。以下に説明する処理は、監視装置14のプロセッサ15により所定の時間間隔で実行される。
[Processing in operation detection system]
With reference to FIG. 6, the procedure for processing information by the monitoring device 14 will be described. FIG. 6 is an example of a flowchart showing information processing in the monitoring system 1 of this embodiment. The processing described below is executed by the processor 15 of the monitoring device 14 at predetermined time intervals.

まず、ステップS1にて、画像取得部21の機能により、操作を行う操作者の手の一部又は全部と、操作者により操作される操作対象とを含む画像を撮像装置11から取得する。たとえば、工場にて組立て作業に従事する作業員が工具を用いてボルトを締める場合では、作業員の手の一部と、ボルト及び工具とを含む画像を取得する。 First, in step S<b>1 , the function of the image acquisition unit 21 acquires from the imaging device 11 an image including part or all of an operator's hand performing an operation and an operation target operated by the operator. For example, when a worker engaged in assembly work in a factory uses a tool to tighten a bolt, an image including a portion of the worker's hand, the bolt, and the tool is acquired.

続くステップS2にて、操作特定部22の機能により、検出装置12で操作者の周囲の状態を検出する。たとえば、工場にて組立て作業に従事する作業員が工具を用いてボルトを締める場合では、作業員の腕に取付けられた筋電計で、作業員の筋電位の値を取得する。 In subsequent step S2, the detection device 12 detects the state of the surroundings of the operator by the function of the operation specifying unit 22. FIG. For example, when a worker engaged in assembly work in a factory uses a tool to tighten a bolt, an electromyograph attached to the worker's arm acquires the value of the worker's myoelectric potential.

続くステップS3にて、操作特定部22の機能により、画像取得部21により取得された画像データ、及び検出装置12の検出結果から、操作者が実行しようとしている操作を特定する。たとえば、工場にて組立て作業に従事する作業員が工具を用いてボルトを締める場合では、作業員がボルトを締めようとしていること、及び作業員がどのボルトを締めようとしているのかを特定する。 In subsequent step S<b>3 , the operation that the operator is about to perform is specified from the image data acquired by the image acquiring unit 21 and the detection result of the detecting device 12 by the function of the operation specifying unit 22 . For example, when a worker engaged in assembly work in a factory tightens a bolt using a tool, it is specified that the worker is about to tighten the bolt and which bolt the worker is about to tighten.

続くステップS4にて、操作判定部23の機能により、特定された操作が所定操作に該当するか否かを判定する。特定された操作が所定操作に該当する場合は、ステップS5に進む。これに対して、特定された操作が所定操作に該当しない場合は、ステップS6に進む。たとえば、工場にて組立て作業に従事する作業員が工具を用いてボルトを締める場合では、作業員がボルトを締めることが所定操作であれば、ステップS5に進む。これに対して、当該作業員の作業にボルトの締結が含まれていない場合は、ステップS6に進む。 In subsequent step S4, the function of the operation determination unit 23 determines whether the specified operation corresponds to the predetermined operation. If the specified operation corresponds to the predetermined operation, the process proceeds to step S5. On the other hand, if the specified operation does not correspond to the predetermined operation, the process proceeds to step S6. For example, when a worker engaged in assembly work in a factory tightens a bolt using a tool, if the worker tightening the bolt is the predetermined operation, the process proceeds to step S5. On the other hand, if the worker's work does not include bolt fastening, the process proceeds to step S6.

ステップS5では、操作手順判定部24の機能により、所定操作が所定手順で実行されたか否かを判定する。所定操作が所定手順で実行されたと判定された場合は、ルーチンの実行を停止して監視の処理を終了する。これに対して、所定操作が所定手順で実行されなかったと判定された場合は、ステップS6に進む。たとえば、工場にて組立て作業に従事する作業員が工具を用いてボルトを締める場合では、作業員が所定手順に従ってボルトを締めた場合は、ルーチンの実行を停止して監視の処理を終了する。これに対して、作業員が、ボルトが緩んだまま放置した場合は、ステップS6に進む。 In step S5, the function of the operation procedure determination unit 24 determines whether or not the predetermined operation has been performed according to the predetermined procedure. When it is determined that the predetermined operation has been performed in accordance with the predetermined procedure, execution of the routine is stopped and the monitoring process is terminated. On the other hand, when it is determined that the predetermined operation has not been performed according to the predetermined procedure, the process proceeds to step S6. For example, when a worker engaged in assembly work in a factory tightens a bolt using a tool, if the worker tightens the bolt according to a predetermined procedure, execution of the routine is stopped and monitoring processing ends. On the other hand, if the worker left the bolt loose, the process proceeds to step S6.

ステップS6では、判定結果出力部25の機能により、特定された操作が所定操作ではなかったこと、及び所定操作が所定手順に従って適切に実行されなかったことが、表示装置13に出力される。そして、表示装置13では、判定結果出力部25の出力を受け取り、操作者及び/又は監視者に、操作が適切に実行されなかったことを通知する。たとえば、工場にて組立て作業に従事する作業員が工具を用いてボルトを締める場合では、作業員が適切にボルトを締めなかったことが、監視者に通知される。そして、当該表示後、ルーチンの実行を停止して監視の処理を終了する。 In step S6, the function of the determination result output unit 25 outputs to the display device 13 that the identified operation was not the predetermined operation and that the predetermined operation was not properly executed according to the predetermined procedure. Then, the display device 13 receives the output of the determination result output unit 25 and notifies the operator and/or the supervisor that the operation was not properly executed. For example, when a worker engaged in assembly work in a factory uses a tool to tighten a bolt, the observer is notified that the worker did not properly tighten the bolt. After the display, the execution of the routine is stopped and the monitoring process ends.

また別の例として、工場にて組立て作業に従事する作業員が2つのカプラーを嵌合する場合では、たとえば、ステップS1にて、ウェアラブル端末として作業員に取付けられた撮像装置11にて画像データを取得し、ステップS2にて、操作特定部22の機能により、作業員の周囲の音を検出する。続くステップS3にて、画像取得部21にて取得された画像データと、検出装置12の検出結果に基づいて、作業員の操作が、カプラーの嵌合であることを特定する。続くステップS4にて、操作判定部23の機能により、特定された操作が所定操作に該当するか否かを判定する。特定された操作であるカプラーの嵌合操作が所定操作である場合は、ステップS5に進む。これに対して、当該作業員の作業にカプラーの嵌合が含まれていない場合は、ステップS6に進む。ステップS5では、操作手順判定部24の機能により、所定操作が所定手順で実行されたか否かを判定する。カプラーの嵌合操作が所定手順で実行されたと判定された場合は、ルーチンの実行を停止して監視の処理を終了する。これに対して、カプラーの嵌合操作が所定手順で実行されなかったと判定された場合は、ステップS6に進む。そして、ステップS6では、判定結果出力部25の機能により、特定されたカプラーの嵌合操作が所定操作ではなかったこと、又はカプラーの嵌合操作が所定手順に従って適切に実行されなかったことが、表示装置13に出力される。 As another example, when a worker engaging in assembly work in a factory connects two couplers, for example, in step S1, image data is captured by the imaging device 11 attached to the worker as a wearable terminal. is obtained, and in step S2, the function of the operation specifying unit 22 detects sounds around the worker. In the subsequent step S3, based on the image data acquired by the image acquisition unit 21 and the detection result of the detection device 12, it is specified that the operator's operation is coupling of the coupler. In subsequent step S4, the function of the operation determination unit 23 determines whether the specified operation corresponds to the predetermined operation. If the coupler fitting operation, which is the specified operation, is the predetermined operation, the process proceeds to step S5. On the other hand, if fitting of the coupler is not included in the worker's work, the process proceeds to step S6. In step S5, the function of the operation procedure determination unit 24 determines whether or not the predetermined operation has been performed according to the predetermined procedure. If it is determined that the coupling operation of the coupler has been performed according to the predetermined procedure, execution of the routine is stopped and the monitoring process is terminated. On the other hand, if it is determined that the coupling operation of the coupler has not been performed according to the predetermined procedure, the process proceeds to step S6. Then, in step S6, by the function of the determination result output unit 25, it is determined that the specified coupling operation of the coupler was not the predetermined operation, or that the coupling operation of the coupler was not properly executed according to the predetermined procedure. It is output to the display device 13 .

[本発明の実施態様]
以上のとおり、本実施形態の監視装置14によれば、操作を行う操作者の腕に取り付けられた撮像装置11を用いて、前記操作者の手Hの一部又は全部と、前記操作者により操作される操作対象Oとを含む画像を取得する画像取得部21と、前記画像取得部21により取得された前記画像を用いて、前記操作が所定操作であるか否かを判定する操作判定部23と、前記操作判定部23の判定結果を出力する判定結果出力部25と、を備える、監視装置が提供される。これにより、操作者が操作対象Oを操作する画像を確実に取得することができる。また、操作者の行動の判定に適した画像を取得し、操作者の行動の判定精度を高めることができる。
[Embodiment of the present invention]
As described above, according to the monitoring device 14 of the present embodiment, using the imaging device 11 attached to the arm of the operator who performs the operation, a part or all of the operator's hand H and the operator An image acquisition unit 21 that acquires an image including an operation target O to be operated, and an operation determination unit that uses the image acquired by the image acquisition unit 21 to determine whether the operation is a predetermined operation. 23 and a determination result output unit 25 that outputs the determination result of the operation determination unit 23. A monitoring device is provided. Accordingly, an image in which the operator operates the operation target O can be reliably acquired. In addition, it is possible to obtain an image suitable for determining the behavior of the operator and improve the accuracy of determining the behavior of the operator.

また、本実施形態の監視装置14によれば、前記画像取得部21は、前記操作者の掌の一部又は全部と、前記操作対象とを含む画像を取得する。これにより、操作者が操作対象を操作する画像をより確実に取得することができる。 Further, according to the monitoring device 14 of the present embodiment, the image acquisition unit 21 acquires an image including part or all of the operator's palm and the operation target. This makes it possible to more reliably acquire an image in which the operator manipulates the manipulation target.

また、本実施形態の監視装置14によれば、前記撮像装置11は、前記操作者の上腕A2の掌側に取り付けるための取付け部を有する。これにより、操作者が操作対象を操作する画像をより確実に取得することができる。 Further, according to the monitoring device 14 of the present embodiment, the imaging device 11 has the mounting portion for mounting on the palm side of the operator's upper arm A2. This makes it possible to more reliably acquire an image in which the operator manipulates the manipulation target.

また、本実施形態の監視装置14によれば、前記画像取得部21にて取得された前記画像から、前記操作を特定する操作特定部22を備え、前記操作判定部23は、前記画像取得部21にて取得された一連の前記画像から、前記操作特定部22にて特定された前記操作が前記所定操作であるか否かを判定する。これにより、より正確に操作を特定することができる。 Further, according to the monitoring device 14 of the present embodiment, the operation identification unit 22 is provided for identifying the operation from the image acquired by the image acquisition unit 21, and the operation determination unit 23 is the image acquisition unit From the series of images acquired in 21, it is determined whether or not the operation specified by the operation specifying unit 22 is the predetermined operation. This makes it possible to specify the operation more accurately.

また、本実施形態の監視装置14によれば、前記操作特定部22は、前記画像取得部21にて取得された時系列の前記画像、及び前記操作者の周囲の状態を検出する検出装置12の検出結果を用いて前記操作を特定する。これにより、より正確に操作を特定することができる。 Further, according to the monitoring device 14 of the present embodiment, the operation specifying unit 22 detects the time-series images acquired by the image acquiring unit 21 and the surrounding conditions of the operator. The operation is specified using the detection result of . This makes it possible to specify the operation more accurately.

また、本実施形態の監視装置14によれば、前記判定結果出力部25は、前記操作判定部23にて前記操作が前記所定操作ではないと判定された場合に、表示装置13に、前記操作が適切ではないことを出力する。これにより、操作者及び/又は監視者に、操作が適切にではないことを通知することができる。 Further, according to the monitoring device 14 of the present embodiment, the determination result output unit 25 displays the operation on the display device 13 when the operation determination unit 23 determines that the operation is not the predetermined operation. is not appropriate. Thereby, the operator and/or the supervisor can be notified that the operation is not proper.

また、本実施形態の監視装置14によれば、前記操作特定部22は、前記画像取得部21により取得された前記画像から前記操作を特定するように学習された第1学習済みモデルを用いて前記操作を特定する。これにより、予め設定されていなかった位置関係に対する操作を特定することができる。 Further, according to the monitoring device 14 of the present embodiment, the operation specifying unit 22 uses the first trained model learned to specify the operation from the image acquired by the image acquiring unit 21. Identify the operation. This makes it possible to specify an operation for a positional relationship that has not been set in advance.

また、本実施形態の監視装置14によれば、前記第1学習済みモデルは、前記画像取得部21にて取得された前記画像、及び前記操作者の周囲の状態を検出する検出装置12の検出結果のうち少なくとも一つを含む第1入力データ34を第1入力層31に入力すると、特定された前記操作を含む第1出力データ35が第1出力層33から出力される第1ニューラルネットワーク3であり、前記操作特定部22は、過去に前記第1ニューラルネットワーク3に入力した第1入力データ34、及び過去に前記第1ニューラルネットワーク3から出力された第1出力データ35を第1教師データ36として前記第1ニューラルネットワーク3を学習させる第1機械学習部22aを備え、前記第1機械学習部22aにより前記第1ニューラルネットワーク3を学習させる。これにより、予め設定されていなかった位置関係に対する操作を、より正確に特定することができる。 Further, according to the monitoring device 14 of the present embodiment, the first trained model is obtained by detecting the image acquired by the image acquisition unit 21 and the detection device 12 that detects the surrounding conditions of the operator. A first neural network 3 in which first input data 34 containing at least one of the results is input to the first input layer 31 and first output data 35 containing the specified operation is output from the first output layer 33. The operation specifying unit 22 converts the first input data 34 input to the first neural network 3 in the past and the first output data 35 output from the first neural network 3 in the past into the first teacher data A first machine learning unit 22a for learning the first neural network 3 is provided as 36, and the first neural network 3 is learned by the first machine learning unit 22a. Accordingly, it is possible to more accurately specify an operation for a positional relationship that has not been set in advance.

また、本実施形態の監視装置14によれば、前記操作特定部22にて前記操作が前記所定操作であると判定された場合に、前記所定操作が所定手順で実行されたか否かを判定する操作手順判定部24を備え、前記判定結果出力部25は、前記操作手順判定部24の判定結果を出力する。これにより、操作を行う手順の適切性を判断することができる。 Further, according to the monitoring device 14 of the present embodiment, when the operation identifying unit 22 determines that the operation is the predetermined operation, it is determined whether or not the predetermined operation has been performed in a predetermined procedure. An operation procedure determination unit 24 is provided, and the determination result output unit 25 outputs the determination result of the operation procedure determination unit 24 . This makes it possible to determine the appropriateness of the procedure for performing the operation.

また、本実施形態の監視装置14によれば、前記操作手順判定部24は、前記画像取得部21にて取得された時系列の前記画像を用いて、前記所定操作が前記所定手順で行われたか否かを判定する。これにより、所定操作が所定手順に従って実行されたか否かをより正確に判定することができる。 Further, according to the monitoring device 14 of the present embodiment, the operation procedure determination unit 24 uses the time-series images acquired by the image acquisition unit 21 to determine whether the predetermined operation is performed in the predetermined procedure. determine whether or not Thereby, it is possible to more accurately determine whether or not the predetermined operation has been performed according to the predetermined procedure.

また、本実施形態の監視装置14によれば、前記判定結果出力部25は、前記操作手順判定部24にて前記所定操作が前記所定手順で実行されなかったと判定された場合に、表示装置13に、前記操作が適切ではないことを出力する。これにより、これにより、操作者及び/又は監視者に、操作が適切にではないことを通知することができる。 Further, according to the monitoring device 14 of the present embodiment, the determination result output unit 25 outputs the display device 13 when the operation procedure determination unit 24 determines that the predetermined operation has not been performed according to the predetermined procedure. , output that the operation is not appropriate. Thereby, the operator and/or the observer can be notified that the operation is not proper.

また、本実施形態の監視装置14によれば、前記操作手順判定部24は、前記画像取得部21にて取得された時系列の前記画像、及び前記操作者の周囲の状態を検出する検出装置12の検出結果を用いて、前記所定操作が前記所定手順で行われたか否かを判定するように学習された第2学習済みモデルを用いて、前記所定操作が前記所定手順で行われたか否かを判定する。これにより、予め設定されていなかった位置関係に対する操作と、その手順の適切性を判断することができる。 Further, according to the monitoring device 14 of the present embodiment, the operation procedure determination unit 24 is a detection device that detects the time-series images acquired by the image acquisition unit 21 and the surrounding conditions of the operator. 12, using a second trained model trained to determine whether the predetermined operation has been performed in the predetermined procedure, using the detection result of 12, whether the predetermined operation has been performed in the predetermined procedure. determine whether As a result, it is possible to determine the appropriateness of the operation and the procedure for the positional relationship that has not been set in advance.

また、本実施形態の監視装置14によれば、前記第2学習済みモデルは、前記画像取得部21にて取得された前記画像、及び前記操作者の周囲の状態を検出する検出装置12の検出結果を含む第2入力データ44を第2入力層41に入力すると、前記所定操作が前記所定手順で行われたか否かの判定結果を含む第2出力データ45が第2出力層43から出力される第2ニューラルネットワーク4であり、前記操作手順判定部24は、過去に前記第2ニューラルネットワーク4に入力した第2入力データ44、及び過去に前記第2ニューラルネットワーク4から出力された第2出力データ45を第2教師データ46として前記第2ニューラルネットワーク4を学習させる第2機械学習部24aを備え、前記第2機械学習部24aにより前記第2ニューラルネットワーク4を学習させる。これにより、予め設定されていなかった位置関係に対する操作と、その手順の適切性を、より正確に判断することができる。 Further, according to the monitoring device 14 of the present embodiment, the second trained model includes the image acquired by the image acquisition unit 21 and the detection of the detection device 12 that detects the surrounding conditions of the operator. When the second input data 44 including the result is input to the second input layer 41, the second output data 45 including the judgment result as to whether or not the predetermined operation has been performed according to the predetermined procedure is output from the second output layer 43. The operation procedure determination unit 24 includes second input data 44 that has been input to the second neural network 4 in the past, and second output that has been output from the second neural network 4 in the past A second machine learning section 24a for learning the second neural network 4 using the data 45 as second teacher data 46 is provided, and the second neural network 4 is learned by the second machine learning section 24a. This makes it possible to more accurately determine the appropriateness of operations and procedures for positional relationships that have not been set in advance.

また、本実施形態の監視装置14によれば、前記操作判定部23は、前記画像取得部21にて取得した前記画像から、前記操作者の前記手Hの動きを取得し、取得した前記動きが、所定の動きに該当するか否かを判定し、前記動きが所定の動きに該当すると判定した場合は、前記手Hの前記動きが所定の動きであると判定された時から所定時間前の時間から、前記手Hの前記動きが所定の動きであると判定された時から所定時間後の時間までの間においてのみ、前記操作が前記所定操作であるか否かを判定する。これにより、監視装置14の消費電力を抑えることができる。 Further, according to the monitoring device 14 of the present embodiment, the operation determination unit 23 acquires the motion of the hand H of the operator from the image acquired by the image acquisition unit 21, and the acquired motion determines whether the movement corresponds to the predetermined movement, and if it is determined that the movement corresponds to the predetermined movement, a predetermined time before the time when the movement of the hand H is determined to be the predetermined movement. , it is determined whether or not the operation is the predetermined operation only during a predetermined period of time after the movement of the hand H is determined to be the predetermined movement. Thereby, the power consumption of the monitoring device 14 can be suppressed.

また、本実施形態の監視装置14によれば、前記動きが所定の動きに該当しないと判定された場合に、前記画像取得部21は、取得する時系列の前記画像のフレームレートを下げる。これにより、画像データを保存する容量を削減することができる。 Further, according to the monitoring device 14 of the present embodiment, when it is determined that the motion does not correspond to the predetermined motion, the image acquisition unit 21 reduces the frame rate of the time-series images to be acquired. As a result, the capacity for storing image data can be reduced.

また、本実施形態の監視方法によれば、プロセッサを用いて操作を行う操作者を監視する監視方法において、前記プロセッサは、前記操作者の腕に取り付けられた撮像装置11から、前記操作者の手Hの一部又は全部と、前記操作者により操作される操作対象Oとを含む画像を取得し、取得された前記画像を用いて、前記操作が所定操作であるか否かを判定し、前記操作が前記所定操作であるか否かの判定結果を出力する監視方法が提供される。これにより、操作者が操作対象Oを操作する画像を確実に取得することができる。また、操作者の行動の判定に適した画像を取得し、操作者の行動の判定精度を高めることができる。 Further, according to the monitoring method of the present embodiment, in the monitoring method of monitoring an operator who performs an operation using a processor, the processor monitors the image of the operator from the imaging device 11 attached to the operator's arm. acquiring an image including part or all of the hand H and an operation target O to be operated by the operator, and using the acquired image, determining whether the operation is a predetermined operation; A monitoring method for outputting a determination result as to whether or not the operation is the predetermined operation is provided. Accordingly, an image in which the operator operates the operation target O can be reliably acquired. In addition, it is possible to obtain an image suitable for determining the behavior of the operator and improve the accuracy of determining the behavior of the operator.

1…監視システム
11…撮像装置
11a…取り付け部
12…検出装置
13…表示装置
14…監視装置
15…プロセッサ
151…CPU
152…ROM
153…RAM
16…データベース
2…操作監視部
21…画像取得部
22…操作特定部
22a…第1機械学習部
23…操作判定部
24…操作手順判定部
24a…第2機械学習部
25…判定結果出力部
3…第1ニューラルネットワーク
31…第1入力層
32…第1中間層
33…第1出力層
34…第1入力データ
35…第1出力データ
36…第1教師データ
4…第2ニューラルネットワーク
41…第2入力層
42…第2中間層
43…第2出力層
44…第2入力データ
45…第2出力データ
46…第2教師データ
A1…前腕部
A2…上腕部
C1、C2…カプラー
H…手
O…操作対象
S…作動音
VA…視角
Z…嵌合部
DESCRIPTION OF SYMBOLS 1... Surveillance system 11... Imaging device 11a... Mounting part 12... Detecting device 13... Display device 14... Monitoring device 15... Processor 151... CPU
152 ROM
153 RAM
DESCRIPTION OF SYMBOLS 16... Database 2... Operation monitoring part 21... Image acquisition part 22... Operation specification part 22a... First machine learning part 23... Operation determination part 24... Operation procedure determination part 24a... Second machine learning part 25... Judgment result output part 3 First Neural Network 31 First Input Layer 32 First Intermediate Layer 33 First Output Layer 34 First Input Data 35 First Output Data 36 First Teacher Data 4 Second Neural Network 41 Second 2 input layer 42 second intermediate layer 43 second output layer 44 second input data 45 second output data 46 second teacher data A1 forearm A2 upper arm C1, C2 coupler H hand O … Operation object S … Operation sound VA … Viewing angle Z … Fitting part

Claims (16)

操作を行う操作者の腕に取り付けられた撮像装置を用いて、前記操作者の手の一部又は全部と、前記操作者により操作される操作対象とを含む画像を取得する画像取得部と、
前記画像取得部により取得された前記画像を用いて、前記操作が所定操作であるか否かを判定する操作判定部と、
前記操作判定部の判定結果を出力する判定結果出力部と、を備える、監視装置。
an image acquisition unit that acquires an image including part or all of the operator's hand and an operation target operated by the operator using an imaging device attached to the arm of the operator who performs the operation;
an operation determination unit that determines whether the operation is a predetermined operation using the image acquired by the image acquisition unit;
and a determination result output unit that outputs a determination result of the operation determination unit.
前記画像取得部は、前記操作者の掌の一部又は全部と、前記操作対象とを含む画像を取得する、請求項1に記載の監視装置。 2. The monitoring apparatus according to claim 1, wherein said image acquisition unit acquires an image including part or all of said operator's palm and said operation target. 前記撮像装置は、前記操作者の上腕の掌側に取り付けるための取付け部を有する、請求項1又は2に記載の監視装置。 3. The monitoring device according to claim 1, wherein said imaging device has a mounting portion for mounting on the palm side of said operator's upper arm. 前記画像取得部にて取得された前記画像から、前記操作を特定する操作特定部を備え、
前記操作判定部は、前記画像取得部にて取得された一連の前記画像から、前記操作特定部にて特定された前記操作が前記所定操作であるか否かを判定する、請求項1~3のいずれか一項に記載の監視装置。
an operation identification unit that identifies the operation from the image acquired by the image acquisition unit;
4. The operation determining unit determines whether the operation specified by the operation specifying unit is the predetermined operation from the series of images acquired by the image acquiring unit. A monitoring device according to any one of Claims 1 to 3.
前記操作特定部は、前記画像取得部にて取得された時系列の前記画像、及び前記操作者の周囲の状態を検出する検出装置の検出結果を用いて前記操作を特定する、請求項4に記載の監視装置。 5. The operation identifying unit identifies the operation using the time-series images obtained by the image obtaining unit and detection results of a detection device that detects a surrounding state of the operator. A monitoring device as described. 前記判定結果出力部は、前記操作判定部にて前記操作が前記所定操作ではないと判定された場合に、表示装置に、前記操作が適切ではないことを出力する、請求項4又は5に記載の監視装置。 6. The determination result output unit according to claim 4, wherein when the operation determination unit determines that the operation is not the predetermined operation, the determination result output unit outputs to a display device that the operation is inappropriate. monitoring equipment. 前記操作特定部は、前記画像取得部により取得された前記画像から前記操作を特定するように学習された第1学習済みモデルを用いて前記操作を特定する、請求項4~6のいずれか一項に記載の監視装置。 7. The operation identifying unit identifies the operation using a first trained model trained to identify the operation from the image acquired by the image acquiring unit. A monitoring device as described in Clause. 前記第1学習済みモデルは、前記画像取得部にて取得された前記画像、及び前記操作者の周囲の状態を検出する検出装置の検出結果のうち少なくとも一つを含む第1入力データを第1入力層に入力すると、特定された前記操作を含む第1出力データが第1出力層から出力される第1ニューラルネットワークであり、
前記操作特定部は、過去に前記第1ニューラルネットワークに入力した第1入力データ、及び過去に前記第1ニューラルネットワークから出力された第1出力データを第1教師データとして前記第1ニューラルネットワークを学習させる第1機械学習部を備え、前記第1機械学習部により前記第1ニューラルネットワークを学習させる、請求項7に記載の監視装置。
The first trained model receives first input data including at least one of the image acquired by the image acquisition unit and a detection result of a detection device that detects a surrounding state of the operator. A first neural network that, when input to an input layer, outputs first output data including the identified operation from a first output layer;
The operation specifying unit learns the first neural network using first input data input to the first neural network in the past and first output data output from the first neural network in the past as first teacher data. 8. The monitoring device according to claim 7, further comprising a first machine learning unit that allows the first machine learning unit to learn the first neural network.
前記操作特定部にて前記操作が前記所定操作であると判定された場合に、前記所定操作が所定手順で実行されたか否かを判定する操作手順判定部を備え、
前記判定結果出力部は、前記操作手順判定部の判定結果を出力する、請求項4~8のいずれか一項に記載の監視装置。
an operation procedure determining unit that determines whether or not the predetermined operation has been performed in accordance with a predetermined procedure when the operation identifying unit determines that the operation is the predetermined operation;
The monitoring device according to any one of claims 4 to 8, wherein said determination result output unit outputs a determination result of said operation procedure determination unit.
前記操作手順判定部は、前記画像取得部にて取得された時系列の前記画像を用いて、前記所定操作が前記所定手順で行われたか否かを判定する、請求項9に記載の監視装置。 10. The monitoring apparatus according to claim 9, wherein said operation procedure determination unit determines whether said predetermined operation has been performed according to said predetermined procedure, using said time-series images acquired by said image acquisition unit. . 前記判定結果出力部は、前記操作手順判定部にて前記所定操作が前記所定手順で実行されなかったと判定された場合に、表示装置に、前記操作が適切ではないことを出力する、請求項9又は10に記載の監視装置。 10. When the operation procedure determination unit determines that the predetermined operation has not been performed according to the predetermined procedure, the determination result output unit outputs to a display device that the operation is inappropriate. Or the monitoring device according to 10. 前記操作手順判定部は、前記画像取得部にて取得された時系列の前記画像、及び前記操作者の周囲の状態を検出する検出装置の検出結果を用いて、前記所定操作が前記所定手順で行われたか否かを判定するように学習された第2学習済みモデルを用いて、前記所定操作が前記所定手順で行われたか否かを判定する、請求項9~11のいずれか一項に記載の監視装置。 The operation procedure determination unit uses the time-series images acquired by the image acquisition unit and the detection result of a detection device that detects the surrounding state of the operator to determine whether the predetermined operation is performed in the predetermined procedure. Determining whether the predetermined operation has been performed in the predetermined procedure using a second learned model that has been learned to determine whether it has been performed, according to any one of claims 9 to 11 A monitoring device as described. 前記第2学習済みモデルは、前記画像取得部にて取得された前記画像、及び前記操作者の周囲の状態を検出する検出装置の検出結果を含む第2入力データを第2入力層に入力すると、前記所定操作が前記所定手順で行われたか否かの判定結果を含む第2出力データが第2出力層から出力される第2ニューラルネットワークであり、
前記操作手順判定部は、過去に前記第2ニューラルネットワークに入力した第2入力データ、及び過去に前記第2ニューラルネットワークから出力された第2出力データを第2教師データとして前記第2ニューラルネットワークを学習させる第2機械学習部を備え、前記第2機械学習部により前記第2ニューラルネットワークを学習させる、請求項12に記載の監視装置。
When the second input data including the image acquired by the image acquisition unit and the detection result of a detection device that detects the surrounding state of the operator is input to the second input layer, the second trained model inputs: a second neural network for outputting from a second output layer second output data including a determination result as to whether the predetermined operation has been performed according to the predetermined procedure;
The operation procedure determination unit determines the second neural network using second input data that has been input to the second neural network in the past and second output data that has been output from the second neural network in the past as second teacher data. 13. The monitoring device according to claim 12, further comprising a second machine learning unit for learning, wherein the second machine learning unit learns the second neural network.
前記操作判定部は、
前記画像取得部にて取得した前記画像から、前記操作者の前記手の動きを取得し、
取得した前記動きが、所定の動きに該当するか否かを判定し、
前記動きが所定の動きに該当すると判定した場合は、前記手の前記動きが所定の動きであると判定された時から所定時間前の時間から、前記手の前記動きが所定の動きであると判定された時から所定時間後の時間までの間においてのみ、前記操作が前記所定操作であるか否かを判定する、請求項1~13のいずれか一項に記載の監視装置。
The operation determination unit is
Acquiring the movement of the hand of the operator from the image acquired by the image acquisition unit;
Determining whether the acquired movement corresponds to a predetermined movement,
When it is determined that the motion corresponds to the predetermined motion, the motion of the hand is determined to be the predetermined motion from a predetermined time before the time when the motion of the hand is determined to be the predetermined motion. 14. The monitoring device according to any one of claims 1 to 13, wherein it is determined whether or not the operation is the predetermined operation only during a period from the time when the determination is made until the time after the predetermined time.
前記動きが所定の動きに該当しないと判定された場合に、前記画像取得部は、取得する時系列の前記画像のフレームレートを下げる、請求項14に記載の監視装置。 15. The monitoring apparatus according to claim 14, wherein when it is determined that the motion does not correspond to the predetermined motion, the image acquisition unit reduces the frame rate of the time-series images to be acquired. プロセッサを用いて操作を行う操作者を監視する監視方法において、
前記プロセッサは、
前記操作者の腕に取り付けられた撮像装置から、前記操作者の手の一部又は全部と、前記操作者により操作される操作対象とを含む画像を取得し、
取得された前記画像を用いて、前記操作が所定操作であるか否かを判定し、
前記操作が前記所定操作であるか否かの判定結果を出力する、監視方法。
In a monitoring method for monitoring an operator performing an operation using a processor,
The processor
acquiring an image including part or all of the operator's hand and an operation target operated by the operator from an imaging device attached to the operator's arm;
Determining whether the operation is a predetermined operation using the acquired image,
A monitoring method of outputting a determination result as to whether or not the operation is the predetermined operation.
JP2021094280A 2021-06-04 2021-06-04 Monitoring device and monitoring method Pending JP2022186188A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021094280A JP2022186188A (en) 2021-06-04 2021-06-04 Monitoring device and monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021094280A JP2022186188A (en) 2021-06-04 2021-06-04 Monitoring device and monitoring method

Publications (1)

Publication Number Publication Date
JP2022186188A true JP2022186188A (en) 2022-12-15

Family

ID=84442350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021094280A Pending JP2022186188A (en) 2021-06-04 2021-06-04 Monitoring device and monitoring method

Country Status (1)

Country Link
JP (1) JP2022186188A (en)

Similar Documents

Publication Publication Date Title
JP5930708B2 (en) Work management device and work management system
CN107932560B (en) Man-machine safety protection system and protection method
US11192249B2 (en) Simulation device for robot
JP2020015128A (en) Sensing system, work system, extended reality image display method, extended reality image memorizing method, and program
JP2018142058A (en) Working quality evaluation apparatus, working quality evaluation method
JP2019105906A (en) Face position detecting device
US20220004168A1 (en) Acoustical or vibrational monitoring in a guided assembly system
Riedel et al. A deep learning-based worker assistance system for error prevention: Case study in a real-world manual assembly
CN113878588B (en) Robot compliant assembly method based on tactile feedback and oriented to buckle type connection
JP5284179B2 (en) Work determination system, work determination method, and recording medium recording the work determination method
JP2022186188A (en) Monitoring device and monitoring method
JP2017068428A (en) Workload evaluation device, workload evaluation method
Lopez et al. Taichi algorithm: Human-like arm data generation applied on non-anthropomorphic robotic manipulators for demonstration
JP6872948B2 (en) Work support system and work support method
Redžepagić et al. A sense of quality for augmented reality assisted process guidance
EP4350483A1 (en) Operation detection device and operation detection method
JP7513210B2 (en) Operation detection device and operation detection method
JPWO2018100631A1 (en) Information processing device
CN111702759A (en) Teaching system and robot teaching method
US20230334396A1 (en) Work instruction system
CN115225682B (en) Management server, remote operation system, remote operation method, and storage medium
TWI777700B (en) Production management method
WO2019064752A1 (en) System for teaching robot, method for teaching robot, control device, and computer program
Baburaj et al. Evaluation of wearable visual assistance system for manual automotive assembly
US20230237843A1 (en) Information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240409