JP2022186188A - Monitoring device and monitoring method - Google Patents
Monitoring device and monitoring method Download PDFInfo
- Publication number
- JP2022186188A JP2022186188A JP2021094280A JP2021094280A JP2022186188A JP 2022186188 A JP2022186188 A JP 2022186188A JP 2021094280 A JP2021094280 A JP 2021094280A JP 2021094280 A JP2021094280 A JP 2021094280A JP 2022186188 A JP2022186188 A JP 2022186188A
- Authority
- JP
- Japan
- Prior art keywords
- operator
- predetermined
- unit
- image
- procedure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 111
- 238000012806 monitoring device Methods 0.000 title claims abstract description 53
- 238000012544 monitoring process Methods 0.000 title claims abstract description 40
- 238000003384 imaging method Methods 0.000 claims abstract description 33
- 238000001514 detection method Methods 0.000 claims description 52
- 238000013528 artificial neural network Methods 0.000 claims description 29
- 238000010801 machine learning Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 description 22
- 238000012545 processing Methods 0.000 description 13
- 239000010705 motor oil Substances 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 239000003921 oil Substances 0.000 description 9
- 210000000245 forearm Anatomy 0.000 description 8
- 230000006399 behavior Effects 0.000 description 7
- 230000003183 myoelectrical effect Effects 0.000 description 7
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000000853 adhesive Substances 0.000 description 3
- 230000001070 adhesive effect Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 238000011017 operating method Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000945 filler Substances 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 239000002826 coolant Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、所定の操作を行う操作者を監視するための装置及び方法に関するものである。 The present invention relates to an apparatus and method for monitoring an operator who performs a predetermined operation.
操作盤に配置された操作用品の操作を、操作盤における操作用品の座標と、オペレーター(以下、「操作者」とも言う。)によって操作用品が操作された時間とを関連付けて検出し、操作盤におけるオペレーターの視線の座標を、視線を検出した時間と関連付けて検出し、操作盤におけるオペレーターの操作位置の座標を示す画像を、画像を取得した時間と関連付けて取得し、オペレーターによって操作用品が操作された時に、オペレーターの視線と操作位置の座標が操作用品の座標にあったか否かを判定することで、オペレーターが、よそ見などをせずに、適切に行動したか否かを判定する方法が知られている(特許文献1)。 Detecting the operation of an operation article placed on the operation panel by associating the coordinates of the operation article on the operation panel with the time when the operation article was operated by an operator (hereinafter also referred to as "operator"), and detecting the operation of the operation article. The coordinates of the operator's line of sight are detected in association with the time when the line of sight was detected, an image showing the coordinates of the operator's operation position on the control panel is acquired in association with the time when the image was acquired, and the operation item is operated by the operator By determining whether or not the coordinates of the line of sight of the operator and the operation position match the coordinates of the operation article, it is possible to determine whether or not the operator has acted appropriately without looking away. (Patent Document 1).
しかしながら、上記従来技術では、操作者の身体や操作用品が障害物となり、操作者の操作位置をカメラで検出できない場合には、操作者の行動が適切であったか否かを判定することができないため、判定精度が低下するという問題がある。 However, in the conventional technology described above, if the operator's body or the operation article becomes an obstacle and the operator's operation position cannot be detected by the camera, it cannot be determined whether the operator's action was appropriate. , there is a problem that the determination accuracy decreases.
本発明が解決しようとする課題は、操作者の行動が適切である否かの判定精度を高めた監視装置及び監視方法を提供することである。 A problem to be solved by the present invention is to provide a monitoring apparatus and a monitoring method that improve the accuracy of determining whether an operator's behavior is appropriate.
本発明は、操作を行う操作者の腕に取り付けられた撮像装置で、前記操作者の手の一部又は全部と、前記操作者により操作される操作対象とを含む画像を取得し、前記画像取得部により取得された前記画像を用いて、前記操作が所定操作であるか否かを判定することで上記課題を解決する。 The present invention is an imaging device attached to the arm of an operator who performs an operation, acquires an image including part or all of the operator's hand and an operation target operated by the operator, and obtains the image. The above problem is solved by determining whether or not the operation is a predetermined operation using the image acquired by the acquisition unit.
本発明によれば、操作者の行動の判定に適した画像を取得し、操作者の行動の判定精度を高めることができる。 According to the present invention, it is possible to obtain an image suitable for determining the behavior of the operator and improve the accuracy of determining the behavior of the operator.
以下、本発明に係る監視装置及び監視方法の実施形態を図面に基づいて説明する。 Embodiments of a monitoring device and a monitoring method according to the present invention will be described below with reference to the drawings.
[監視システム]
図1は、本発明に係る監視システム1を示すブロック図である。監視システム1は、ある操作対象に対してある操作を行う操作者の操作を監視する装置であり、たとえば、車両の組立て工場において、組立て作業に従事する作業員が、予め決められた手順に従って工具を操作したか否かを監視する場合、車両の販売店(以下、「ディーラー」とも言う。)において、車両の整備に従事する整備士が、マニュアルにて定められた手順に従って整備を行ったか否かを監視する場合などに用いることができる。監視システム1により操作を監視される操作者は特に限定されず、工場の作業員、ディーラーの整備士などが挙げられる。
[Monitoring system]
FIG. 1 is a block diagram showing a monitoring system 1 according to the invention. The monitoring system 1 is a device that monitors the operation of an operator who performs a certain operation on a certain operation target. is operated, the vehicle dealer (hereinafter also referred to as "dealer") has performed maintenance according to the procedures specified in the manual by the mechanic engaged in vehicle maintenance. It can be used, for example, to monitor whether Operators whose operations are monitored by the monitoring system 1 are not particularly limited, and examples thereof include factory workers and dealer mechanics.
図1に示すように、監視システム1は、撮像装置11、検出装置12、表示装置13、及び監視装置14を備える。監視システム1を構成する機器は、有線又は無線LANなどの公知の手段により、互いにデータの授受が可能な状態で接続されている。撮像装置11、検出装置12、及び表示装置13の数は、それぞれ、少なくとも1以上であれば特に限定されない。また、撮像装置11、検出装置12、及び表示装置13は、監視装置14と共に設けられている必要はなく、監視装置14から離れた場所に設置されていてもよい。たとえば、撮像装置11、検出装置12、及び表示装置13を、組立て工場の組立てラインの近くに設置し、監視装置14を、組立てラインから離れた中央制御室、又は組立て工場から離れた遠隔地のサーバーに設けてもよい。
As shown in FIG. 1 , the monitoring system 1 includes an
撮像装置11は、周囲の対象物の画像データを取得するための装置であり、たとえば、CCDなどの撮像素子を備えるカメラ、超音波カメラ、赤外線カメラなどのカメラである。対象物には、操作者に加えて、操作者の周囲に存在する物体が含まれる。対象物としては、たとえば、作業員の周囲に配置されたスイッチやタッチパネル、作業員が組立てているパーツや使用している工具、ディーラーの整備士が整備する車両など挙げられる。また、撮像装置11は、操作者の腕に取り付けられており、これにより、操作者が操作対象を操作する画像を確実に取得することができる。撮像装置11は、操作者の腕に取り付けるための取付け部を有し、たとえば、面ファスナーや粘着性のパッドを用いて、操作者の上腕の掌側に取り付けることができるようになっている。
The
検出装置12は、操作者の状況、及び操作者の周囲の状態を検出するための装置であり、あらゆるセンサーが含まれる。センサーとしては、たとえば、操作者の筋電位を測定する筋電計、操作者の周囲の音を音声データとして取得するマイクロフォン、操作者の身体の動作を検出するために操作者に取付けられた加速度計、操作者の周囲の温度を計測する温度計などが挙げられる。筋電計が備える電極は、針電極、表面電極、ワイヤー電極のいずれであってもよい。筋電計は、たとえば、粘着性のパッド又は面ファスナーにより、操作者の身体、特に、上腕及び/又は前腕を含む腕に取り付けられ、取り付けられた操作者の身体と接する部分の筋電位を測定する。
The
マイクロフォンには、スタンドマイク、接話型マイク、ガンマイクなどが含まれ、無指向性であってもよく、指向性を有していてもよい。また、通信方式は、有線及び無線のいずれでもよい。マイクロフォンは、操作者の声及び操作者の周囲の人の声に加えて、操作者の動作に起因する音を取得する。ユーザーの動作に起因する音としては、作業員が操作したスイッチから発生する音、作業員がタッチパネルに触れた時にスピーカーから発生する音、作業員が複数のパーツを嵌合した時に発生する、パーツ同士がかみ合った音、ディーラーの整備士が使用する工具の作動音などが挙げられる。マイクロフォンは、組立て工場の組立てライン、作業台、及び作業員が使用する道具など、操作者の周囲の音を検出することができる位置に設置される。 Microphones include stand mics, close-talking mics, gun mics, etc., and may be omnidirectional or directional. Also, the communication method may be either wired or wireless. The microphone acquires sounds caused by the operator's actions in addition to the operator's voice and the voices of people around the operator. Sounds caused by user actions include sounds generated from switches operated by workers, sounds generated from speakers when workers touch the touch panel, and sounds generated when workers assemble multiple parts. Examples include the sound of gears meshing together and the sound of tools being used by dealer mechanics. Microphones are placed in locations where sounds around the operator can be detected, such as on the assembly line of the assembly plant, on the workbenches, and on the tools used by the workers.
加速度計は特に限定されないが、操作者の身体、特に、上腕及び/又は前腕を含む腕に取付けることができる大きさのものが好ましく、たとえば、MEMS(Micro Electro Mechanical Systems)を用いた小型の加速度計を用いることができる。温度計も特に限定されず、接触式の温度計であっても、赤外線を用いた非接触式の温度計であってもよい。監視装置14は、所定の時間間隔で、これらのセンサーから検出結果を取得する。 Although the accelerometer is not particularly limited, it is preferably of a size that can be attached to the operator's body, especially the arm including the upper arm and / or the forearm. can be used. The thermometer is also not particularly limited, and may be a contact thermometer or a non-contact thermometer using infrared rays. Monitoring device 14 acquires detection results from these sensors at predetermined time intervals.
表示装置13は、監視装置14にて監視された操作を操作者及び/又は監視者に通知するための装置である。監視者は、操作者の近くにいる必要はなく、工場の中央制御室や、工場から離れた遠隔地にいてもよい。表示装置13は、たとえば、液晶ディスプレイ、プロジェクターなどであり、スピーカーを備えていてもよい。表示装置13は、たとえば、組立て工場の作業員の作業場所など、操作者の近くであって、操作者に必要な情報を通知することができる位置、及び操作者から離れた場所にいる監視者に必要な情報を通知することができる位置などに設置される。また、表示装置13は、ウェアラブル端末として操作者に取付けられていてもよい。さらに、撮像装置11、検出装置12、表示装置13、及び監視装置14を一つのウェアラブル端末に統合し、操作者に取付けてもよい。
The
撮像装置11、検出装置12、及び表示装置13の位置関係の一例を図2に示す。図2では、取り付け部11aを用いて、操作者の前腕部A1に撮像装置11が取り付けられており、操作者の上腕部A2には、粘着性のパッドを用い検出装置12が取り付けられている。また、操作者の手Hには、操作対象Oを保持されている。ここで、撮像装置11の視角がVAで示される範囲であるとすると、撮像装置11は、操作者の手Hの一部と、操作対象Oとを含む画像を撮像することができる。撮像装置11にて撮像された画像データと、検出装置12の検出結果は、無線通信により監視装置14に送出される。また、図2では、操作者の正面に表示装置13が設けられており、操作者は、表示装置13の表示を確認することができる。
An example of the positional relationship among the
図1に戻り、監視装置14は、操作者が、ある操作を適切に実行したか否かを監視するための装置である。当該監視に用いる画像データ、及びセンサーの検出結果は、それぞれ、所定の時間間隔で、撮像装置11、及び検出装置12から取得される。監視装置14は、プロセッサ15を用いて、取得したデータの処理、操作が適切に実行されたか否かの判定、及び当該判定の結果の出力といった機能を実現する。プロセッサ15は、プログラムが格納されたROM(Read Only Memory)152と、ROM152に格納されたプログラムを実行することで、監視装置14として機能するための動作回路であるCPU(Central Processing Unit)151と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)153とを備える。
Returning to FIG. 1, the monitoring device 14 is a device for monitoring whether or not the operator has appropriately performed a certain operation. The image data and sensor detection results used for the monitoring are obtained from the
[操作監視部]
本実施形態の監視装置14で用いるプログラムは、取得したデータの処理、操作が適切に実行されたか否かの判定、及び当該判定の結果の出力などの機能を監視装置14にて実現するための機能ブロックである操作監視部2を含む。操作監視部2は、撮像装置11から画像データを取得し、検出装置12から検出結果を取得し、取得したデータに基づいてユーザーが実行する操作を特定し、特定した操作が所定の手順で適切に実行されたか否かを判定し、当該判定結果を出力する機能を有する。操作監視部2は、図1に示すように、画像取得部21、操作特定部22、操作判定部23、操作手順判定部24、及び判定結果出力部25を備える。図1には、各部を便宜的に抽出して示す。
[Operation monitor]
The program used by the monitoring device 14 of this embodiment is a program for realizing functions such as processing of acquired data, determination of whether or not an operation has been properly executed, and output of the result of the determination. It includes an operation monitoring section 2 which is a functional block. The operation monitoring unit 2 acquires image data from the
図1に示す監視装置14は上記の機能ブロックを全て備えるが、単一の監視装置14が全ての機能ブロックを備える必要はなく、上記の機能ブロックのうち一部のものを、監視システム1に含まれる他の機器、又は図示しない別の情報処理装置に設けてもよい。たとえば、図1の監視システム1において、判定結果出力部25を表示装置13に設けてもよい。この場合には、表示装置13のCPU、ROM、及びRAMを用いて判定結果出力部25の機能が実行されることになる。
Although the monitoring device 14 shown in FIG. 1 includes all of the above functional blocks, it is not necessary for a single monitoring device 14 to include all of the functional blocks. It may be provided in other equipment included or another information processing device (not shown). For example, in the monitoring system 1 of FIG. 1 , the determination result output section 25 may be provided in the
また、各機能ブロックの処理の全てを単一の装置にて実行する必要はなく、データが授受できる状態で接続された複数の装置をまたいで、各機能ブロックの機能を実現してもよい。たとえば、図1の監視システム1において、操作特定部22にて実行される処理のうち、一部の処理を撮像装置11にて実行し、残りの処理を監視装置14にて実行するようにしてもよい。この場合には、撮像装置11のCPU、ROM、及びRAMを用いて、操作特定部22の機能を実現するための処理の一部が行われることになる。また、ほかの例として、操作判定部23及び/又は操作手順判定部24にて実行される処理のうち、一部の処理を撮像装置11にて実行し、残りの処理を監視装置14にて実行するようにしてもよい。
Moreover, it is not necessary to execute all the processing of each functional block in a single device, and the function of each functional block may be realized across a plurality of devices connected in a state in which data can be exchanged. For example, in the monitoring system 1 of FIG. 1, part of the processing performed by the operation specifying unit 22 is performed by the
以下、操作監視部2の各機能ブロックが果たす機能について説明する。 Functions performed by each functional block of the operation monitoring unit 2 will be described below.
画像取得部21は、操作を行う操作者と、前記操作者により操作される操作対象とを含む画像を取得する機能を有する。特に、本実施形態の画像取得部21は、操作者の腕に取り付けられた撮像装置11から画像データを取得し、取得する画像データには、操作者の手Hの一部又は全部と、操作者により操作される操作対象Oとが含まれる。操作者の手Hは右手であっても左手であってもよく、手Hの少なくとも一部が含まれていればよいが、特に、操作者の掌の一部又は全部と、操作対象Oとが画像に含まれていると、より正確に操作を判定することができる。
The image acquisition unit 21 has a function of acquiring an image including an operator performing an operation and an operation target operated by the operator. In particular, the image acquisition unit 21 of the present embodiment acquires image data from the
操作者が行う操作は特に限定されず、操作者が操作対象に対して何らかの入力を行うためのあらゆる操作が含まれる。具体的には、組立て工場の作業員が、タッチパネルに触れて組み立てラインの機器の表示を変更する操作、組立て工場の作業員が、センサーに接続されたカプラーと、電子制御装置(ECU)に接続されたカプラーとを嵌合する操作、組立て工場の作業員が、工具を用いてボルトを締めて、エンジンブロックにエキゾーストマニホールドを取り付ける操作、ディーラーの整備士が、エンジンにスパークプラグを嵌める操作、ディーラーの整備士が、トルクレンチを用いてボルトを締める操作などを挙げることができる。 The operation performed by the operator is not particularly limited, and includes all operations for the operator to make some kind of input to the operation target. Specifically, the assembly factory worker touches the touch panel to change the display of the equipment on the assembly line, and the assembly factory worker connects the coupler connected to the sensor and the electronic control unit (ECU). An assembly factory worker uses a tool to tighten the bolts to attach the exhaust manifold to the engine block. A dealer's mechanic installs a spark plug in the engine. For example, a mechanic uses a torque wrench to tighten a bolt.
また、操作対象は特に限定されず、操作者が何らかの入力操作を行う対象となるあらゆる物体が含まれる。たとえば、ON/OFFを切り替えるスイッチ、タッチパネルのユーザーインターフェース、カプラーやエキゾーストマニホールドのようなパーツ、トルクレンチや電動ドライバーのような工具などが挙げられる。 Also, the operation target is not particularly limited, and includes any object that is the target of some input operation performed by the operator. Examples include ON/OFF switches, touch panel user interfaces, parts such as couplers and exhaust manifolds, and tools such as torque wrenches and electric screwdrivers.
さらに、画像取得部21は、撮像装置11から取得する画像の品質を変更することができ、操作者が操作をしていない間など、後述する操作判定部23にて画像データの処理を行わない間は、取得する時系列の画像(動画)のフレームレートを低下させてもよい。たとえば、後述する操作判定部23にて、操作者の手の動きが所定の動きに該当しないと判定された場合には、取得する時系列の画像のフレームレートを、所定のフレームレート(たとえば60fps)より下げてもよい。所定のフレームレートは、監視装置14にて操作の監視が適切に実行できる範囲内で、適宜の値を設定することができる。これに対して、操作者が実際に操作を行っている間は、取得する時系列の画像のフレームレートを、所定のフレームレートより上げてもよい。
Furthermore, the image acquisition unit 21 can change the quality of the image acquired from the
操作特定部22は、画像取得部21にて取得された画像データから、操作者が実行する操作を特定する機能を有する。操作特定部22は、撮像装置11から取得した画像データについてパターンマッチングなどの解析を行い、画像データに含まれる対象物を分類する。次に、分類された対象物から操作者を選択し、画像データから抽出された操作者の手の部分に関するデータを取得する。これと同様に、分類された対象物から操作対象を選択し、画像データから抽出された操作対象に関するデータを取得する。そして、これらのデータから、操作者の手と操作対象との位置関係を認識し、認識した位置関係からユーザーの操作を特定する。
The operation identifying unit 22 has a function of identifying an operation performed by the operator from the image data acquired by the image acquiring unit 21 . The operation specifying unit 22 performs analysis such as pattern matching on image data acquired from the
操作者の手Hと操作対象Oとの位置関係と、操作者が実行しようとしている操作との対応関係は、操作ごとに予め求められており、たとえばデータベース16のようなデータベースに格納されている。操作特定部22は、必要に応じて、データベース16から位置関係と操作の対応関係を取得することができる。操作特定部22は、データベース16から取得した対応関係に基づき、画像取得部21にて取得された画像データから、操作者が実行しようとしている操作を特定する。 A correspondence relationship between the positional relationship between the operator's hand H and the operation target O and the operation that the operator is about to perform is obtained in advance for each operation and stored in a database such as the database 16, for example. . The operation specifying unit 22 can acquire the correspondence relationship between the positional relationship and the operation from the database 16 as necessary. The operation identification unit 22 identifies an operation that the operator is about to perform from the image data acquired by the image acquisition unit 21 based on the correspondence acquired from the database 16 .
一例として、画像取得部21により取得された画像データに、工場の組立てラインで作業している作業員が、左手にカプラーを持って、別のカプラーに右手を延ばしている状態が含まれていた場合について説明する。この場合には、操作特定部22は、データベース16から取得した、位置関係と操作の対応関係から、カプラーに延びた右手とカプラーとの位置関係に対応する操作を検索する。当該動作に対応する操作として、すでに嵌合された一対カプラーから一方のカプラーを抜取る操作と、センサーに接続されたカプラーと、電子制御装置に接続されたカプラーとを嵌合する操作とが該当したとすると、操作特定部22は、作業員が左手にカプラーを持っていることから、当該位置関係は、センサーに接続されたカプラーと、電子制御装置に接続されたカプラーとを嵌合する操作に対応すると特定する。 As an example, the image data acquired by the image acquisition unit 21 includes a state in which a worker working on an assembly line in a factory holds a coupler in his left hand and extends his right hand toward another coupler. A case will be described. In this case, the operation specifying unit 22 searches for an operation corresponding to the positional relationship between the right hand extending to the coupler and the coupler from the correspondence relationship between the positional relationship and the operation acquired from the database 16 . The operations corresponding to this action include the operation of removing one coupler from a pair of couplers already engaged, and the operation of engaging the coupler connected to the sensor with the coupler connected to the electronic control unit. Then, since the operator holds the coupler in his left hand, the operation specifying unit 22 determines that the positional relationship is the operation of fitting the coupler connected to the sensor and the coupler connected to the electronic control unit. to be identified as corresponding to
また別の例として、画像取得部21により取得された画像データに、ディーラーの整備士が、左手にエンジンオイルを持って、エンジンルームに右手を延ばしている状態が含まれていた場合について説明する。この場合には、操作特定部22は、データベース16から取得した、位置関係と操作の対応関係から、エンジンルームに延びた右手と、エンジンルーム内の右手との位置関係に対応する操作を検索する。当該動作に対応する操作として、エンジンの冷却液を補充する操作と、エンジンオイルを補充する操作とが該当したとすると、操作特定部22は、作業員が左手にエンジンオイルを持っていることから、当該位置関係は、エンジンオイルを補充する操作に対応すると特定する。 As another example, a case where the image data acquired by the image acquisition unit 21 includes a state in which a dealer's mechanic holds engine oil in his left hand and extends his right hand into the engine room will be described. . In this case, the operation specifying unit 22 searches for an operation corresponding to the positional relationship between the right hand extending into the engine room and the right hand inside the engine room, based on the correspondence between the positional relationship and the operation acquired from the database 16. . Assuming that an operation for replenishing the coolant of the engine and an operation for replenishing the engine oil correspond to the operation corresponding to the operation, the operation specifying unit 22 determines that the operator holds the engine oil in the left hand. , the positional relationship is specified as corresponding to the operation of replenishing the engine oil.
また、操作特定部22は、画像取得部21にて取得された画像として、動画のような時系列の画像を用いて操作を特定してもよい。操作特定部22は、所定の時間間隔で画像取得部21から画像データを取得し、画像データを解析する。このように、所定の時間間隔を有する時系列の画像を用いることで、より正確に操作を特定することができる。当該時間間隔は、CPU151の計算能力に応じて適宜の間隔を設定することができる。これに代えて又はこれに加えて、操作特定部22は、検出装置12の検出結果を用いて操作を特定してもよい。たとえば、操作者の上腕に取り付けられた筋電計により検出された、操作者の筋電位の値、及び操作者の前腕に取付けられた加速度計により検出された加速度の値などから、操作者の動作を検出し、検出した動作を用いて操作を特定してもよい。
Further, the operation identifying unit 22 may identify the operation using time-series images such as moving images as the images acquired by the image acquiring unit 21 . The operation specifying unit 22 acquires image data from the image acquiring unit 21 at predetermined time intervals and analyzes the image data. In this way, by using time-series images having predetermined time intervals, the operation can be specified more accurately. The time interval can be appropriately set according to the computing power of the
さらに、操作特定部22は、画像取得部21により取得された画像データから操作を特定するように学習された第1学習済みモデルを用いて操作を特定してもよい。学習済みモデルとは、ある入力データに対して適切な出力データが得られるように、予め機械学習により学習されたモデルであり、少なくとも、入力データから出力データを得るまでの演算を行うプログラムと、当該演算に用いられる重み付け係数(パラメータ)とを備える。本実施形態の第1学習済みモデルは、画像取得部21にて取得された画像データが入力データとして入力されると、当該入力データに基づいて、当該画像において操作者が実行しようとしている操作が特定され、出力データが出力されるようにコンピュータ(特に、プロセッサ15のCPU151)を機能させる。このような第1学習済みモデルを用いることで、予め対応関係が設定されていない位置関係を示す画像データについても、操作を特定することができる。
Furthermore, the operation identifying unit 22 may identify the operation using a first trained model that has been trained to identify the operation from the image data acquired by the image acquiring unit 21 . A trained model is a model that has been learned in advance by machine learning so that appropriate output data can be obtained for certain input data. At least, a program that performs operations from input data to output data, and a weighting coefficient (parameter) used for the calculation. When the image data acquired by the image acquisition unit 21 is input as input data, the first trained model of the present embodiment is based on the input data, and the operation that the operator is about to perform on the image is performed. The computer (in particular, the
本実施形態の第1学習済みモデルは特に限定されないが、たとえば、図3に示すような第1ニューラルネットワーク3である。第1ニューラルネットワーク3は、第1入力層31、第1中間層32、及び第1出力層33を備え、各層には少なくとも一つのニューロンが含まれている。第1入力層31には、画像取得部21にて取得された画像データ、及び検出装置12の検出結果のうち少なくとも一つを含む第1入力データ34が入力され、入力されたデータを第1中間層32に出力する。第1中間層32は、第1入力層31から入力されたデータから、操作者の手と操作対象との位置関係を抽出する。そして、抽出した位置関係に対応する操作を特定する。第1出力層33は、第1中間層32から入力されたデータを、特定された操作を含む第1出力データ35として出力する。
Although the first trained model of this embodiment is not particularly limited, it is, for example, the first
第1中間層32では、操作者が実行しようとしている操作を特定するための、操作者の手と操作対象との位置関係と、操作者が実行しようとしている操作との対応関係が、機械学習により確立されている。これにより、作業員の手とスイッチとの位置関係、作業員の手とタッチパネルのユーザーインターフェースとの位置関係、作業員の手とパーツとの位置関係、整備士の手と工具との位置関係などの操作者の手と操作対象との位置関係から、操作者が実行しようとしている操作を特定できる。当該対応関係には、操作者の手と操作対象との位置関係に加えて、検出装置12により検出された、操作者の周囲の状態などの複数の要因が関連つけられており、入力したデータに対して適切な操作が出力されるように、パラメータが設定されている。たとえば、作業員がカプラーを左右それぞれの手で把持していること、整備士が左手にエンジンオイルを持っていることなどは、操作を特定する際のパラメータとして考慮される。
In the first
また、上述した第1中間層32の対応関係は、予め機械学習により学習されていてもよいが、過去に第1ニューラルネットワーク3に入力した第1入力データ34、及び過去に第1ニューラルネットワーク3から出力された第1出力データ35を含む第1教師データ36により新たに学習させてもよいし、予め機械学習により学習された学習済みモデルをさらに学習させてもよい。当該学習は、操作特定部22が備える第1機械学習部22aより実行される。第1教師データ36は、たとえば、図1に示すデータベース16のようなデータベースに格納されており、必要に応じて取得することができる。過去の第1入力データ34と第1出力データ35との組み合わせを用いて学習することで、操作特定部22において、操作者の手と操作対象との位置関係に基づいた操作の特定がより正確になる。
Further, the correspondence relationship of the first
図1に戻り、操作判定部23は、画像取得部21により取得された画像データを用いて、操作判定部23により特定された操作が所定操作であるか否かを判定する機能を有する。所定操作とは、操作者が実行する操作として予め定められた操作であり、たとえば、工場の作業員であれば、センサーに接続されたカプラーと、電子制御装置(ECU)に接続されたカプラーとを嵌合する操作、及び工具を用いてボルトを締めて、エンジンブロックにエキゾーストマニホールドを取り付ける操作などの操作が、所定操作として予め設定されている。操作判定部23は、たとえば、画像取得部21にて取得された一連の画像を用いて、操作判定部23により特定された操作が、所定操作であるか否かを判定し、判定結果を操作手順判定部24及び判定結果出力部25に出力する。 Returning to FIG. 1 , the operation determination unit 23 has a function of determining whether or not the operation specified by the operation determination unit 23 is a predetermined operation using the image data acquired by the image acquisition unit 21 . A predetermined operation is an operation that is predetermined as an operation performed by an operator. For example, in the case of a factory worker, a coupler connected to a sensor and a coupler connected to an electronic control unit (ECU) and the operation of tightening the bolts using a tool to attach the exhaust manifold to the engine block are set in advance as predetermined operations. The operation determination unit 23 uses, for example, a series of images acquired by the image acquisition unit 21 to determine whether or not the operation specified by the operation determination unit 23 is a predetermined operation. It outputs to the procedure determination unit 24 and the determination result output unit 25 .
また、操作判定部23は、画像取得部21にて取得した画像から、操作者の手Hの動きを取得し、取得した動きが、所定の動きに該当するか否かを判定することができる。そして、当該手Hの動きが所定の動きに該当すると判定した場合は、手Hの動きが所定の動きであると判定された時から所定時間前の時間から、前記手の前記動きが所定の動きであると判定された時から所定時間後の時間までの間においてのみ、特定された操作が所定操作であるか否かを判定する。このように、操作の判定が必要になる、手Hの動きが所定の動きであると判定された時の前後の時間のみで判定を行うことができる。操作者の手Hの動きは、画像取得部21にて取得した画像データの解析、並びに操作者の上腕部A2に取り付けられた筋電計により検出された筋電位の値、及び操作者の前腕部A1に取付けられた加速度計により検出された加速度の値などから取得することができる。また、所定の動きは、所定操作の初期の手Hの動きとして、予め設定され、データベース16などに格納されている。操作判定部23は、必要に応じて、所定の動きのデータをデータベース16から取得する。 Further, the operation determination unit 23 can acquire the motion of the operator's hand H from the image acquired by the image acquisition unit 21 and determine whether or not the acquired motion corresponds to a predetermined motion. . Then, when it is determined that the movement of the hand H corresponds to the predetermined movement, the movement of the hand is determined to be the predetermined movement from a predetermined time before the time when the movement of the hand H is determined to be the predetermined movement. It is determined whether or not the identified operation is the predetermined operation only during the period from when it is determined to be the movement to when the predetermined time elapses. In this way, it is possible to perform the determination only at the time before and after the motion of the hand H is determined to be the predetermined motion, which requires the determination of the operation. The movement of the operator's hand H is determined by analysis of image data acquired by the image acquisition unit 21, myoelectric potential values detected by an electromyograph attached to the operator's upper arm A2, and the operator's forearm. It can be obtained from the value of the acceleration detected by the accelerometer attached to the portion A1. Further, the predetermined movement is set in advance as an initial movement of the hand H for the predetermined operation and stored in the database 16 or the like. The operation determination unit 23 acquires data of a predetermined movement from the database 16 as necessary.
操作手順判定部24は、操作特定部22にて特定された操作が所定操作に該当すると、操作判定部23において判定された場合に、所定操作が所定手順で実行されたか否かを判定する機能を有する。特に、操作手順判定部24は、画像取得部21にて取得された時系列の画像データを用いて、所定操作が所定手順で行われたか否かを判定する。所定手順とは、所定操作ごとに予め設定されており、データベース16のようなデータベースに格納されている。 The operation procedure determination unit 24 has a function of determining whether or not the predetermined operation has been executed according to a predetermined procedure when the operation determination unit 23 determines that the operation identified by the operation identification unit 22 corresponds to the predetermined operation. have In particular, the operation procedure determination unit 24 uses the time-series image data acquired by the image acquisition unit 21 to determine whether a predetermined operation has been performed according to a predetermined procedure. A predetermined procedure is preset for each predetermined operation and stored in a database such as the database 16 .
操作手順判定部24は、所定の時間間隔で、操作特定部22から特定された操作を取得し、画像データに含まれる操作者の手と操作対象との位置関係を把握する。そして、操作者の操作を時系列で把握し、都度、上述したような所定手順と、特定された操作とが合致しているか否かを判定する。操作手順判定部24は、特定された操作が完了するまでに、所定手順との差異がなかった場合は、所定操作が所定手順で実行されたと判定する。これに対して、特定された操作が所定手順と異なる場合、及び特定された操作が所定手順から逸脱した場合などは、所定操作が所定手順で実行されなかったと判定する。これらの判定結果は、判定結果出力部25に出力される。 The operating procedure determination unit 24 acquires the specified operation from the operation specifying unit 22 at predetermined time intervals, and grasps the positional relationship between the operator's hand and the operation target included in the image data. Then, the operator's operations are grasped in chronological order, and it is determined each time whether or not the predetermined procedure described above matches the specified operation. If there is no difference from the predetermined procedure by the time the identified operation is completed, the operating procedure determination unit 24 determines that the predetermined operation has been performed according to the predetermined procedure. On the other hand, if the identified operation is different from the predetermined procedure, or if the identified operation deviates from the predetermined procedure, it is determined that the predetermined operation has not been performed according to the predetermined procedure. These determination results are output to the determination result output unit 25 .
一例として、図4を用いて、所定操作が2つのカプラーを嵌合する操作である場合について説明する。図4では、作業員の左手に把持されたカプラーC1と、作業員の左手に把持されたカプラーC2とを嵌合し、カプラーC1とカプラーC2の嵌合部Zが適切に嵌合すると、作動音Sが発生するものとする。この場合の所定手順は、たとえば図4に示すように、ステップ1)作業員が左手と右手のそれぞれでカプラーC1、C2を把持し、ステップ2)カプラーC1をカプラーC2と組み合わせ、ステップ3)カプラーの嵌合部Zがかみ合い、カチッという作動音Sを発生させるまでカプラーC1、C2を互いに押込み、ステップ4)作動音Sが発生したらカプラーC1、C2から手を離すという4つのステップからなる手順である。操作手順判定部24は、所定の時間間隔で、操作特定部22から特定された操作を取得し、カプラーを嵌合する操作者の手とカプラーとの位置関係を把握する。そして、カプラーを嵌合する操作者がカプラーどのように操作しているのかを時系列で把握し、都度、上述したような4つのステップと、特定された操作とが合致しているか否かを判定する。 As an example, a case where the predetermined operation is an operation of fitting two couplers will be described with reference to FIG. In FIG. 4, the coupler C1 held by the left hand of the worker and the coupler C2 held by the left hand of the worker are fitted together, and when the fitting portion Z of the coupler C1 and the coupler C2 is properly fitted, the operation is performed. Suppose that a sound S is generated. The predetermined procedure in this case is, for example, as shown in FIG. The couplers C1 and C2 are pushed into each other until the fitting portion Z is engaged and a clicking sound S is generated, and step 4) when the operating sound S is generated, the couplers C1 and C2 are released. be. The operation procedure determining unit 24 acquires the specified operation from the operation specifying unit 22 at predetermined time intervals, and grasps the positional relationship between the coupler and the hand of the operator who engages the coupler. Then, how the operator who engages the coupler operates the coupler is grasped in chronological order, and each time, whether or not the four steps described above match the specified operation is checked. judge.
上述したステップに従ってカプラーの嵌合が完了した場合は、カプラーは所定手順に従って適切に嵌合されたと判定する。これに対して、ステップ3)におけるカプラーの押込みが足りず、適切にカプラーが嵌合しなかった場合には、カプラーは適切に嵌合されなかったと判定する。ここで、操作手順判定部24は、所定操作が所定手順で実行されたか否かを判定するときに、検出装置12の検出結果を用いてもよい。この場合であれば、たとえば、操作者の上腕に取り付けられた筋電計にて取得した筋電位の値、及び操作者の前腕加速度計に取付けられた加速度計にて取得した加速度の値などから、カプラーを嵌合する操作者の動作を検出し、操作手順判定部24の判定に用いてもよい。また、カプラーを嵌合する操作者の近傍に設置されたマイクロフォンにより、カプラーの嵌合部Zがかみ合ったときに発生する、カチッという作動音Sを検出し、操作手順判定部24の判定に用いてもよい。
If the coupler has been mated according to the steps described above, it is determined that the coupler has been properly mated according to the predetermined procedure. On the other hand, if the coupler was not properly fitted due to insufficient pushing of the coupler in step 3), it is determined that the coupler was not properly fitted. Here, the operation procedure determination unit 24 may use the detection result of the
また、別の例として、所定操作がエンジンオイルを補充する操作である場合について説明する。この場合、所定手順は、1)オイルフィラーキャップを外し、2)オイル注入口からエンジンオイルを注ぎ込み、3)オイルフィラーキャップを閉め、4)オイルレベルゲージでエンジンオイルの量を確認するという4つのステップからなる手順である。操作手順判定部24は、所定の時間間隔で、操作特定部22から特定された操作を取得し、オイルを補充する操作者の手と、エンジンオイル及びオイルレベルゲージとの位置関係を把握する。そして、オイルを補充する操作者がどのような操作をしているのかを時系列で把握し、都度、上述したような4つのステップと、特定された操作とが合致しているか否かを判定する。 As another example, a case where the predetermined operation is an operation to replenish engine oil will be described. In this case, the predetermined procedure consists of 1) removing the oil filler cap, 2) pouring engine oil from the oil inlet, 3) closing the oil filler cap, and 4) checking the amount of engine oil with the oil level gauge. It is a procedure consisting of steps. The operation procedure determining unit 24 acquires the specified operation from the operation specifying unit 22 at predetermined time intervals, and grasps the positional relationship between the hand of the operator who replenishes the oil, the engine oil, and the oil level gauge. Then, the operations performed by the operator who refills the oil are grasped in chronological order, and each time, it is determined whether or not the four steps described above match the specified operations. do.
上述したステップに従ってオイルを補充が完了した場合は、エンジンオイルは所定手順に従って適切に補充されたと判定する。これに対して、ステップ4)においてエンジンオイルの量を確認しなかった場合には、エンジンオイルが適切に補充されなかったと判定する。また、上述の例と同様に、操作手順判定部24は、所定操作が所定手順で実行されたか否かを判定するときに、検出装置12の検出結果を用いてもよい。この場合であれば、たとえば、操作者の上腕に取り付けられた筋電計にて取得した筋電位の値、及び操作者の前腕加速度計に取付けられた加速度計にて取得した加速度の値などから、オイルレベルゲージを把持する動作を検出し、操作手順判定部24の判定に用いてもよい。
If the oil has been replenished according to the steps described above, it is determined that the engine oil has been properly replenished according to the predetermined procedure. On the other hand, if the amount of engine oil is not confirmed in step 4), it is determined that the engine oil has not been properly replenished. Further, similarly to the above example, the operation procedure determination unit 24 may use the detection result of the
さらに、操作手順判定部24は、画像取得部21にて取得された時系列の画像データ、及び/又は操作者の周囲の状態を検出する検出装置12の検出結果を用いて、所定操作が所定手順で行われたか否かを判定するように学習された第2学習済みモデルを用いて、所定操作が所定手順で行われたか否かを判定してもよい。本実施形態の第2学習済みモデルは、画像取得部21にて取得された時系列の画像データ、及び/又は操作者の周囲の状態を検出する検出装置12の検出結果が入力データとして入力されると、当該入力データに基づいて、当該画像において操作者が実行しようとしている操作が特定され、操作者が、特定された操作を所定手順で実行したか否かの判定結果を含む出力データが出力されるようにコンピュータ(特に、プロセッサ15のCPU151)を機能させる。このような第2学習済みモデルを用いることで、予め対応関係が設定されていない位置関係を示す画像データについても、操作が所定手順で実行されたか判定することができる。
Furthermore, the operation procedure determination unit 24 uses the time-series image data acquired by the image acquisition unit 21 and/or the detection result of the
第2学習済みモデルは特に限定されないが、たとえば、図5に示すような第2ニューラルネットワーク4である。第2ニューラルネットワーク4は、第2入力層41、第2中間層42、及び第2出力層43を備え、各層には少なくとも一つのニューロンが含まれている。第2入力層41には、画像取得部21にて取得された時系列の画像データ、及び検出装置12の検出結果のうち少なくとも一つを含む第2入力データ44が入力され、入力されたデータを第2中間層42に出力する。第2中間層42は、第2入力層41から入力されたデータから、操作者の手と操作対象との位置関係を抽出する。次に、抽出した位置関係に対応する操作を特定する。そして、特定した操作が所定操作に該当するか否かを判定し、特定した操作が所定操作に該当する場合には、所定操作が所定手順で行われたか否かを判定する。第2出力層43は、第2中間層42から入力されたデータを、所定操作が所定手順で行われたか否かの判定経緯を含む第2出力データ45として出力する。
Although the second trained model is not particularly limited, it is, for example, the second
第2中間層42では、上述した第1中間層32と同様に、操作者が実行しようとしている操作を特定するための、操作者の手と操作対象との位置関係と、操作者が実行しようとしている操作との対応関係が、機械学習により確立されている。当該対応関係には、操作者の手と操作対象との位置関係に加えて、検出装置12により検出された、操作者の周囲の状態などの複数の要因が関連つけられており、入力したデータに対して適切な操作が出力されるように、パラメータが設定されている。これに加えて、第2中間層42では、特定した操作が所定操作に該当する場合に、所定操作が所定手順で行われたか否かを判定するため、特定された操作と所定手順との対応関係が確立されている。具体的には、特定された操作を時系列に並べたデータと、所定手順の各ステップとの対応関係が機械学習により学習され、特定された操作と所定手順とが適切に対比できるように、必要なパラメータが設定されている。
In the second
また、上述した第2中間層42の対応関係は、予め機械学習により学習されていてもよいが、過去に第2ニューラルネットワーク4に入力した第2入力データ44、及び過去に第2ニューラルネットワーク4から出力された第2出力データ45を含む第2教師データ46により新たに学習させてもよいし、予め機械学習により学習された学習済みモデルをさらに学習させてもよい。当該学習は、操作手順判定部24が備える第2機械学習部24aより実行される。第2教師データ46は、たとえば、図1に示すデータベース16のようなデータベースに格納されており、必要に応じて取得することができる。過去の第2入力データ44と第2出力データ45との組み合わせを用いて学習することで、操作手順判定部24における、所定操作が所定手順で実行されたか否かの判定がより正確になる。
Further, the correspondence relationship of the second
図1に戻り、判定結果出力部25は、操作判定部23及び操作手順判定部24における判定結果を取得し、外部の機器に出力する機能を有し、特に、操作判定部23にて、操作者の実行する操作が所定操作ではないと判定された場合に、表示装置13に、操作が適切ではないことを出力する。また、操作手順判定部24にて、所定操作が所定手順で実行されなかったと判定された場合にも、表示装置13に、操作が適切ではないことを出力する。これらの判定結果を表示装置13に出力し、表示装置13に表示させることで、操作者及び/又は監視者に、所定操作が適切に実行されなかったことを通知することができる。
Returning to FIG. 1, the determination result output unit 25 has a function of acquiring determination results from the operation determination unit 23 and the operation procedure determination unit 24 and outputting them to an external device. When it is determined that the operation performed by the user is not the predetermined operation, it outputs to the
なお、監視装置14の電源は、検出装置12の検出結果から、操作者が監視システム1の利用を開始したことを確認した後にONにされてもよい。また、操作判定部23及び操作手順判定部24の判定結果を、図示しないサーバーに出力してもよい。
Note that the power of the monitoring device 14 may be turned on after confirming that the operator has started using the monitoring system 1 based on the detection results of the
[操作検出システムにおける処理]
図6を参照して、監視装置14が情報を処理する際の手順を説明する。図6は、本実施形態の監視システム1における情報の処理を示すフローチャートの一例である。以下に説明する処理は、監視装置14のプロセッサ15により所定の時間間隔で実行される。
[Processing in operation detection system]
With reference to FIG. 6, the procedure for processing information by the monitoring device 14 will be described. FIG. 6 is an example of a flowchart showing information processing in the monitoring system 1 of this embodiment. The processing described below is executed by the processor 15 of the monitoring device 14 at predetermined time intervals.
まず、ステップS1にて、画像取得部21の機能により、操作を行う操作者の手の一部又は全部と、操作者により操作される操作対象とを含む画像を撮像装置11から取得する。たとえば、工場にて組立て作業に従事する作業員が工具を用いてボルトを締める場合では、作業員の手の一部と、ボルト及び工具とを含む画像を取得する。
First, in step S<b>1 , the function of the image acquisition unit 21 acquires from the
続くステップS2にて、操作特定部22の機能により、検出装置12で操作者の周囲の状態を検出する。たとえば、工場にて組立て作業に従事する作業員が工具を用いてボルトを締める場合では、作業員の腕に取付けられた筋電計で、作業員の筋電位の値を取得する。
In subsequent step S2, the
続くステップS3にて、操作特定部22の機能により、画像取得部21により取得された画像データ、及び検出装置12の検出結果から、操作者が実行しようとしている操作を特定する。たとえば、工場にて組立て作業に従事する作業員が工具を用いてボルトを締める場合では、作業員がボルトを締めようとしていること、及び作業員がどのボルトを締めようとしているのかを特定する。
In subsequent step S<b>3 , the operation that the operator is about to perform is specified from the image data acquired by the image acquiring unit 21 and the detection result of the detecting
続くステップS4にて、操作判定部23の機能により、特定された操作が所定操作に該当するか否かを判定する。特定された操作が所定操作に該当する場合は、ステップS5に進む。これに対して、特定された操作が所定操作に該当しない場合は、ステップS6に進む。たとえば、工場にて組立て作業に従事する作業員が工具を用いてボルトを締める場合では、作業員がボルトを締めることが所定操作であれば、ステップS5に進む。これに対して、当該作業員の作業にボルトの締結が含まれていない場合は、ステップS6に進む。 In subsequent step S4, the function of the operation determination unit 23 determines whether the specified operation corresponds to the predetermined operation. If the specified operation corresponds to the predetermined operation, the process proceeds to step S5. On the other hand, if the specified operation does not correspond to the predetermined operation, the process proceeds to step S6. For example, when a worker engaged in assembly work in a factory tightens a bolt using a tool, if the worker tightening the bolt is the predetermined operation, the process proceeds to step S5. On the other hand, if the worker's work does not include bolt fastening, the process proceeds to step S6.
ステップS5では、操作手順判定部24の機能により、所定操作が所定手順で実行されたか否かを判定する。所定操作が所定手順で実行されたと判定された場合は、ルーチンの実行を停止して監視の処理を終了する。これに対して、所定操作が所定手順で実行されなかったと判定された場合は、ステップS6に進む。たとえば、工場にて組立て作業に従事する作業員が工具を用いてボルトを締める場合では、作業員が所定手順に従ってボルトを締めた場合は、ルーチンの実行を停止して監視の処理を終了する。これに対して、作業員が、ボルトが緩んだまま放置した場合は、ステップS6に進む。 In step S5, the function of the operation procedure determination unit 24 determines whether or not the predetermined operation has been performed according to the predetermined procedure. When it is determined that the predetermined operation has been performed in accordance with the predetermined procedure, execution of the routine is stopped and the monitoring process is terminated. On the other hand, when it is determined that the predetermined operation has not been performed according to the predetermined procedure, the process proceeds to step S6. For example, when a worker engaged in assembly work in a factory tightens a bolt using a tool, if the worker tightens the bolt according to a predetermined procedure, execution of the routine is stopped and monitoring processing ends. On the other hand, if the worker left the bolt loose, the process proceeds to step S6.
ステップS6では、判定結果出力部25の機能により、特定された操作が所定操作ではなかったこと、及び所定操作が所定手順に従って適切に実行されなかったことが、表示装置13に出力される。そして、表示装置13では、判定結果出力部25の出力を受け取り、操作者及び/又は監視者に、操作が適切に実行されなかったことを通知する。たとえば、工場にて組立て作業に従事する作業員が工具を用いてボルトを締める場合では、作業員が適切にボルトを締めなかったことが、監視者に通知される。そして、当該表示後、ルーチンの実行を停止して監視の処理を終了する。
In step S6, the function of the determination result output unit 25 outputs to the
また別の例として、工場にて組立て作業に従事する作業員が2つのカプラーを嵌合する場合では、たとえば、ステップS1にて、ウェアラブル端末として作業員に取付けられた撮像装置11にて画像データを取得し、ステップS2にて、操作特定部22の機能により、作業員の周囲の音を検出する。続くステップS3にて、画像取得部21にて取得された画像データと、検出装置12の検出結果に基づいて、作業員の操作が、カプラーの嵌合であることを特定する。続くステップS4にて、操作判定部23の機能により、特定された操作が所定操作に該当するか否かを判定する。特定された操作であるカプラーの嵌合操作が所定操作である場合は、ステップS5に進む。これに対して、当該作業員の作業にカプラーの嵌合が含まれていない場合は、ステップS6に進む。ステップS5では、操作手順判定部24の機能により、所定操作が所定手順で実行されたか否かを判定する。カプラーの嵌合操作が所定手順で実行されたと判定された場合は、ルーチンの実行を停止して監視の処理を終了する。これに対して、カプラーの嵌合操作が所定手順で実行されなかったと判定された場合は、ステップS6に進む。そして、ステップS6では、判定結果出力部25の機能により、特定されたカプラーの嵌合操作が所定操作ではなかったこと、又はカプラーの嵌合操作が所定手順に従って適切に実行されなかったことが、表示装置13に出力される。
As another example, when a worker engaging in assembly work in a factory connects two couplers, for example, in step S1, image data is captured by the
[本発明の実施態様]
以上のとおり、本実施形態の監視装置14によれば、操作を行う操作者の腕に取り付けられた撮像装置11を用いて、前記操作者の手Hの一部又は全部と、前記操作者により操作される操作対象Oとを含む画像を取得する画像取得部21と、前記画像取得部21により取得された前記画像を用いて、前記操作が所定操作であるか否かを判定する操作判定部23と、前記操作判定部23の判定結果を出力する判定結果出力部25と、を備える、監視装置が提供される。これにより、操作者が操作対象Oを操作する画像を確実に取得することができる。また、操作者の行動の判定に適した画像を取得し、操作者の行動の判定精度を高めることができる。
[Embodiment of the present invention]
As described above, according to the monitoring device 14 of the present embodiment, using the
また、本実施形態の監視装置14によれば、前記画像取得部21は、前記操作者の掌の一部又は全部と、前記操作対象とを含む画像を取得する。これにより、操作者が操作対象を操作する画像をより確実に取得することができる。 Further, according to the monitoring device 14 of the present embodiment, the image acquisition unit 21 acquires an image including part or all of the operator's palm and the operation target. This makes it possible to more reliably acquire an image in which the operator manipulates the manipulation target.
また、本実施形態の監視装置14によれば、前記撮像装置11は、前記操作者の上腕A2の掌側に取り付けるための取付け部を有する。これにより、操作者が操作対象を操作する画像をより確実に取得することができる。
Further, according to the monitoring device 14 of the present embodiment, the
また、本実施形態の監視装置14によれば、前記画像取得部21にて取得された前記画像から、前記操作を特定する操作特定部22を備え、前記操作判定部23は、前記画像取得部21にて取得された一連の前記画像から、前記操作特定部22にて特定された前記操作が前記所定操作であるか否かを判定する。これにより、より正確に操作を特定することができる。 Further, according to the monitoring device 14 of the present embodiment, the operation identification unit 22 is provided for identifying the operation from the image acquired by the image acquisition unit 21, and the operation determination unit 23 is the image acquisition unit From the series of images acquired in 21, it is determined whether or not the operation specified by the operation specifying unit 22 is the predetermined operation. This makes it possible to specify the operation more accurately.
また、本実施形態の監視装置14によれば、前記操作特定部22は、前記画像取得部21にて取得された時系列の前記画像、及び前記操作者の周囲の状態を検出する検出装置12の検出結果を用いて前記操作を特定する。これにより、より正確に操作を特定することができる。 Further, according to the monitoring device 14 of the present embodiment, the operation specifying unit 22 detects the time-series images acquired by the image acquiring unit 21 and the surrounding conditions of the operator. The operation is specified using the detection result of . This makes it possible to specify the operation more accurately.
また、本実施形態の監視装置14によれば、前記判定結果出力部25は、前記操作判定部23にて前記操作が前記所定操作ではないと判定された場合に、表示装置13に、前記操作が適切ではないことを出力する。これにより、操作者及び/又は監視者に、操作が適切にではないことを通知することができる。
Further, according to the monitoring device 14 of the present embodiment, the determination result output unit 25 displays the operation on the
また、本実施形態の監視装置14によれば、前記操作特定部22は、前記画像取得部21により取得された前記画像から前記操作を特定するように学習された第1学習済みモデルを用いて前記操作を特定する。これにより、予め設定されていなかった位置関係に対する操作を特定することができる。 Further, according to the monitoring device 14 of the present embodiment, the operation specifying unit 22 uses the first trained model learned to specify the operation from the image acquired by the image acquiring unit 21. Identify the operation. This makes it possible to specify an operation for a positional relationship that has not been set in advance.
また、本実施形態の監視装置14によれば、前記第1学習済みモデルは、前記画像取得部21にて取得された前記画像、及び前記操作者の周囲の状態を検出する検出装置12の検出結果のうち少なくとも一つを含む第1入力データ34を第1入力層31に入力すると、特定された前記操作を含む第1出力データ35が第1出力層33から出力される第1ニューラルネットワーク3であり、前記操作特定部22は、過去に前記第1ニューラルネットワーク3に入力した第1入力データ34、及び過去に前記第1ニューラルネットワーク3から出力された第1出力データ35を第1教師データ36として前記第1ニューラルネットワーク3を学習させる第1機械学習部22aを備え、前記第1機械学習部22aにより前記第1ニューラルネットワーク3を学習させる。これにより、予め設定されていなかった位置関係に対する操作を、より正確に特定することができる。
Further, according to the monitoring device 14 of the present embodiment, the first trained model is obtained by detecting the image acquired by the image acquisition unit 21 and the
また、本実施形態の監視装置14によれば、前記操作特定部22にて前記操作が前記所定操作であると判定された場合に、前記所定操作が所定手順で実行されたか否かを判定する操作手順判定部24を備え、前記判定結果出力部25は、前記操作手順判定部24の判定結果を出力する。これにより、操作を行う手順の適切性を判断することができる。 Further, according to the monitoring device 14 of the present embodiment, when the operation identifying unit 22 determines that the operation is the predetermined operation, it is determined whether or not the predetermined operation has been performed in a predetermined procedure. An operation procedure determination unit 24 is provided, and the determination result output unit 25 outputs the determination result of the operation procedure determination unit 24 . This makes it possible to determine the appropriateness of the procedure for performing the operation.
また、本実施形態の監視装置14によれば、前記操作手順判定部24は、前記画像取得部21にて取得された時系列の前記画像を用いて、前記所定操作が前記所定手順で行われたか否かを判定する。これにより、所定操作が所定手順に従って実行されたか否かをより正確に判定することができる。 Further, according to the monitoring device 14 of the present embodiment, the operation procedure determination unit 24 uses the time-series images acquired by the image acquisition unit 21 to determine whether the predetermined operation is performed in the predetermined procedure. determine whether or not Thereby, it is possible to more accurately determine whether or not the predetermined operation has been performed according to the predetermined procedure.
また、本実施形態の監視装置14によれば、前記判定結果出力部25は、前記操作手順判定部24にて前記所定操作が前記所定手順で実行されなかったと判定された場合に、表示装置13に、前記操作が適切ではないことを出力する。これにより、これにより、操作者及び/又は監視者に、操作が適切にではないことを通知することができる。
Further, according to the monitoring device 14 of the present embodiment, the determination result output unit 25 outputs the
また、本実施形態の監視装置14によれば、前記操作手順判定部24は、前記画像取得部21にて取得された時系列の前記画像、及び前記操作者の周囲の状態を検出する検出装置12の検出結果を用いて、前記所定操作が前記所定手順で行われたか否かを判定するように学習された第2学習済みモデルを用いて、前記所定操作が前記所定手順で行われたか否かを判定する。これにより、予め設定されていなかった位置関係に対する操作と、その手順の適切性を判断することができる。 Further, according to the monitoring device 14 of the present embodiment, the operation procedure determination unit 24 is a detection device that detects the time-series images acquired by the image acquisition unit 21 and the surrounding conditions of the operator. 12, using a second trained model trained to determine whether the predetermined operation has been performed in the predetermined procedure, using the detection result of 12, whether the predetermined operation has been performed in the predetermined procedure. determine whether As a result, it is possible to determine the appropriateness of the operation and the procedure for the positional relationship that has not been set in advance.
また、本実施形態の監視装置14によれば、前記第2学習済みモデルは、前記画像取得部21にて取得された前記画像、及び前記操作者の周囲の状態を検出する検出装置12の検出結果を含む第2入力データ44を第2入力層41に入力すると、前記所定操作が前記所定手順で行われたか否かの判定結果を含む第2出力データ45が第2出力層43から出力される第2ニューラルネットワーク4であり、前記操作手順判定部24は、過去に前記第2ニューラルネットワーク4に入力した第2入力データ44、及び過去に前記第2ニューラルネットワーク4から出力された第2出力データ45を第2教師データ46として前記第2ニューラルネットワーク4を学習させる第2機械学習部24aを備え、前記第2機械学習部24aにより前記第2ニューラルネットワーク4を学習させる。これにより、予め設定されていなかった位置関係に対する操作と、その手順の適切性を、より正確に判断することができる。
Further, according to the monitoring device 14 of the present embodiment, the second trained model includes the image acquired by the image acquisition unit 21 and the detection of the
また、本実施形態の監視装置14によれば、前記操作判定部23は、前記画像取得部21にて取得した前記画像から、前記操作者の前記手Hの動きを取得し、取得した前記動きが、所定の動きに該当するか否かを判定し、前記動きが所定の動きに該当すると判定した場合は、前記手Hの前記動きが所定の動きであると判定された時から所定時間前の時間から、前記手Hの前記動きが所定の動きであると判定された時から所定時間後の時間までの間においてのみ、前記操作が前記所定操作であるか否かを判定する。これにより、監視装置14の消費電力を抑えることができる。 Further, according to the monitoring device 14 of the present embodiment, the operation determination unit 23 acquires the motion of the hand H of the operator from the image acquired by the image acquisition unit 21, and the acquired motion determines whether the movement corresponds to the predetermined movement, and if it is determined that the movement corresponds to the predetermined movement, a predetermined time before the time when the movement of the hand H is determined to be the predetermined movement. , it is determined whether or not the operation is the predetermined operation only during a predetermined period of time after the movement of the hand H is determined to be the predetermined movement. Thereby, the power consumption of the monitoring device 14 can be suppressed.
また、本実施形態の監視装置14によれば、前記動きが所定の動きに該当しないと判定された場合に、前記画像取得部21は、取得する時系列の前記画像のフレームレートを下げる。これにより、画像データを保存する容量を削減することができる。 Further, according to the monitoring device 14 of the present embodiment, when it is determined that the motion does not correspond to the predetermined motion, the image acquisition unit 21 reduces the frame rate of the time-series images to be acquired. As a result, the capacity for storing image data can be reduced.
また、本実施形態の監視方法によれば、プロセッサを用いて操作を行う操作者を監視する監視方法において、前記プロセッサは、前記操作者の腕に取り付けられた撮像装置11から、前記操作者の手Hの一部又は全部と、前記操作者により操作される操作対象Oとを含む画像を取得し、取得された前記画像を用いて、前記操作が所定操作であるか否かを判定し、前記操作が前記所定操作であるか否かの判定結果を出力する監視方法が提供される。これにより、操作者が操作対象Oを操作する画像を確実に取得することができる。また、操作者の行動の判定に適した画像を取得し、操作者の行動の判定精度を高めることができる。
Further, according to the monitoring method of the present embodiment, in the monitoring method of monitoring an operator who performs an operation using a processor, the processor monitors the image of the operator from the
1…監視システム
11…撮像装置
11a…取り付け部
12…検出装置
13…表示装置
14…監視装置
15…プロセッサ
151…CPU
152…ROM
153…RAM
16…データベース
2…操作監視部
21…画像取得部
22…操作特定部
22a…第1機械学習部
23…操作判定部
24…操作手順判定部
24a…第2機械学習部
25…判定結果出力部
3…第1ニューラルネットワーク
31…第1入力層
32…第1中間層
33…第1出力層
34…第1入力データ
35…第1出力データ
36…第1教師データ
4…第2ニューラルネットワーク
41…第2入力層
42…第2中間層
43…第2出力層
44…第2入力データ
45…第2出力データ
46…第2教師データ
A1…前腕部
A2…上腕部
C1、C2…カプラー
H…手
O…操作対象
S…作動音
VA…視角
Z…嵌合部
DESCRIPTION OF SYMBOLS 1...
152 ROM
153 RAM
DESCRIPTION OF SYMBOLS 16... Database 2... Operation monitoring part 21... Image acquisition part 22... Operation specification part 22a... First machine learning part 23... Operation determination part 24... Operation procedure determination part 24a... Second machine learning part 25... Judgment
Claims (16)
前記画像取得部により取得された前記画像を用いて、前記操作が所定操作であるか否かを判定する操作判定部と、
前記操作判定部の判定結果を出力する判定結果出力部と、を備える、監視装置。 an image acquisition unit that acquires an image including part or all of the operator's hand and an operation target operated by the operator using an imaging device attached to the arm of the operator who performs the operation;
an operation determination unit that determines whether the operation is a predetermined operation using the image acquired by the image acquisition unit;
and a determination result output unit that outputs a determination result of the operation determination unit.
前記操作判定部は、前記画像取得部にて取得された一連の前記画像から、前記操作特定部にて特定された前記操作が前記所定操作であるか否かを判定する、請求項1~3のいずれか一項に記載の監視装置。 an operation identification unit that identifies the operation from the image acquired by the image acquisition unit;
4. The operation determining unit determines whether the operation specified by the operation specifying unit is the predetermined operation from the series of images acquired by the image acquiring unit. A monitoring device according to any one of Claims 1 to 3.
前記操作特定部は、過去に前記第1ニューラルネットワークに入力した第1入力データ、及び過去に前記第1ニューラルネットワークから出力された第1出力データを第1教師データとして前記第1ニューラルネットワークを学習させる第1機械学習部を備え、前記第1機械学習部により前記第1ニューラルネットワークを学習させる、請求項7に記載の監視装置。 The first trained model receives first input data including at least one of the image acquired by the image acquisition unit and a detection result of a detection device that detects a surrounding state of the operator. A first neural network that, when input to an input layer, outputs first output data including the identified operation from a first output layer;
The operation specifying unit learns the first neural network using first input data input to the first neural network in the past and first output data output from the first neural network in the past as first teacher data. 8. The monitoring device according to claim 7, further comprising a first machine learning unit that allows the first machine learning unit to learn the first neural network.
前記判定結果出力部は、前記操作手順判定部の判定結果を出力する、請求項4~8のいずれか一項に記載の監視装置。 an operation procedure determining unit that determines whether or not the predetermined operation has been performed in accordance with a predetermined procedure when the operation identifying unit determines that the operation is the predetermined operation;
The monitoring device according to any one of claims 4 to 8, wherein said determination result output unit outputs a determination result of said operation procedure determination unit.
前記操作手順判定部は、過去に前記第2ニューラルネットワークに入力した第2入力データ、及び過去に前記第2ニューラルネットワークから出力された第2出力データを第2教師データとして前記第2ニューラルネットワークを学習させる第2機械学習部を備え、前記第2機械学習部により前記第2ニューラルネットワークを学習させる、請求項12に記載の監視装置。 When the second input data including the image acquired by the image acquisition unit and the detection result of a detection device that detects the surrounding state of the operator is input to the second input layer, the second trained model inputs: a second neural network for outputting from a second output layer second output data including a determination result as to whether the predetermined operation has been performed according to the predetermined procedure;
The operation procedure determination unit determines the second neural network using second input data that has been input to the second neural network in the past and second output data that has been output from the second neural network in the past as second teacher data. 13. The monitoring device according to claim 12, further comprising a second machine learning unit for learning, wherein the second machine learning unit learns the second neural network.
前記画像取得部にて取得した前記画像から、前記操作者の前記手の動きを取得し、
取得した前記動きが、所定の動きに該当するか否かを判定し、
前記動きが所定の動きに該当すると判定した場合は、前記手の前記動きが所定の動きであると判定された時から所定時間前の時間から、前記手の前記動きが所定の動きであると判定された時から所定時間後の時間までの間においてのみ、前記操作が前記所定操作であるか否かを判定する、請求項1~13のいずれか一項に記載の監視装置。 The operation determination unit is
Acquiring the movement of the hand of the operator from the image acquired by the image acquisition unit;
Determining whether the acquired movement corresponds to a predetermined movement,
When it is determined that the motion corresponds to the predetermined motion, the motion of the hand is determined to be the predetermined motion from a predetermined time before the time when the motion of the hand is determined to be the predetermined motion. 14. The monitoring device according to any one of claims 1 to 13, wherein it is determined whether or not the operation is the predetermined operation only during a period from the time when the determination is made until the time after the predetermined time.
前記プロセッサは、
前記操作者の腕に取り付けられた撮像装置から、前記操作者の手の一部又は全部と、前記操作者により操作される操作対象とを含む画像を取得し、
取得された前記画像を用いて、前記操作が所定操作であるか否かを判定し、
前記操作が前記所定操作であるか否かの判定結果を出力する、監視方法。 In a monitoring method for monitoring an operator performing an operation using a processor,
The processor
acquiring an image including part or all of the operator's hand and an operation target operated by the operator from an imaging device attached to the operator's arm;
Determining whether the operation is a predetermined operation using the acquired image,
A monitoring method of outputting a determination result as to whether or not the operation is the predetermined operation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021094280A JP2022186188A (en) | 2021-06-04 | 2021-06-04 | Monitoring device and monitoring method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021094280A JP2022186188A (en) | 2021-06-04 | 2021-06-04 | Monitoring device and monitoring method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022186188A true JP2022186188A (en) | 2022-12-15 |
Family
ID=84442350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021094280A Pending JP2022186188A (en) | 2021-06-04 | 2021-06-04 | Monitoring device and monitoring method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022186188A (en) |
-
2021
- 2021-06-04 JP JP2021094280A patent/JP2022186188A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5930708B2 (en) | Work management device and work management system | |
CN107932560B (en) | Man-machine safety protection system and protection method | |
US11192249B2 (en) | Simulation device for robot | |
JP2020015128A (en) | Sensing system, work system, extended reality image display method, extended reality image memorizing method, and program | |
JP2018142058A (en) | Working quality evaluation apparatus, working quality evaluation method | |
JP2019105906A (en) | Face position detecting device | |
US20220004168A1 (en) | Acoustical or vibrational monitoring in a guided assembly system | |
Riedel et al. | A deep learning-based worker assistance system for error prevention: Case study in a real-world manual assembly | |
CN113878588B (en) | Robot compliant assembly method based on tactile feedback and oriented to buckle type connection | |
JP5284179B2 (en) | Work determination system, work determination method, and recording medium recording the work determination method | |
JP2022186188A (en) | Monitoring device and monitoring method | |
JP2017068428A (en) | Workload evaluation device, workload evaluation method | |
Lopez et al. | Taichi algorithm: Human-like arm data generation applied on non-anthropomorphic robotic manipulators for demonstration | |
JP6872948B2 (en) | Work support system and work support method | |
Redžepagić et al. | A sense of quality for augmented reality assisted process guidance | |
EP4350483A1 (en) | Operation detection device and operation detection method | |
JP7513210B2 (en) | Operation detection device and operation detection method | |
JPWO2018100631A1 (en) | Information processing device | |
CN111702759A (en) | Teaching system and robot teaching method | |
US20230334396A1 (en) | Work instruction system | |
CN115225682B (en) | Management server, remote operation system, remote operation method, and storage medium | |
TWI777700B (en) | Production management method | |
WO2019064752A1 (en) | System for teaching robot, method for teaching robot, control device, and computer program | |
Baburaj et al. | Evaluation of wearable visual assistance system for manual automotive assembly | |
US20230237843A1 (en) | Information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240409 |