JP2020087091A - Skill degree determination system - Google Patents

Skill degree determination system Download PDF

Info

Publication number
JP2020087091A
JP2020087091A JP2018222187A JP2018222187A JP2020087091A JP 2020087091 A JP2020087091 A JP 2020087091A JP 2018222187 A JP2018222187 A JP 2018222187A JP 2018222187 A JP2018222187 A JP 2018222187A JP 2020087091 A JP2020087091 A JP 2020087091A
Authority
JP
Japan
Prior art keywords
work
unit
determination
worker
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018222187A
Other languages
Japanese (ja)
Other versions
JP7011569B2 (en
Inventor
光太郎 三之宮
Kotaro Sannomiya
光太郎 三之宮
勝 川崎
Masaru Kawasaki
勝 川崎
靖貴 賀来
Yasutaka Kaku
靖貴 賀来
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Building Systems Co Ltd
Original Assignee
Hitachi Building Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Building Systems Co Ltd filed Critical Hitachi Building Systems Co Ltd
Priority to JP2018222187A priority Critical patent/JP7011569B2/en
Publication of JP2020087091A publication Critical patent/JP2020087091A/en
Application granted granted Critical
Publication of JP7011569B2 publication Critical patent/JP7011569B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a technique for determining accurately, a skill degree of an operator on the basis of a view point of the operator.SOLUTION: A skill degree determination system comprises: an external imaging part for imaging a visual field video of an operator; and a view point detection part for detecting a view point position of the operator. The skill degree determination system cuts out a frame image from the visual field video, recognizes an operation object for every cut image, identifies for every cut image, a drawing region of the operation object, determines whether or not the view point is positioned in the identified drawing region, and on the basis of the determination result, derives a gaze period in which the operator gazed the operation object over a regulated period and a number at which the view point passed the drawing region of the operation object without gaze in the regulated period, determines whether or not an operation by the operator is proper, and displays the determination result.SELECTED DRAWING: Figure 1

Description

本発明は、作業者の視点を検出・分析することで、設備の保守作業などに関する熟練度を判定する技術に関する。 The present invention relates to a technique for determining a skill level regarding maintenance work of equipment by detecting and analyzing a viewpoint of a worker.

従来、例えば昇降機などの保守作業における作業方法の教育研修は、顧客の作業現場や教育研修設備などの限られた場所で実機を使用して実施されたり、紙面上またはネットワーク上に保存された作業手順書によって実施されたりしている。 Conventionally, for example, education and training on work methods for maintenance work such as elevators is performed using actual machines at limited places such as customer's work site and education and training equipment, or work saved on paper or network It is carried out according to the procedure manual.

また昇降機は、次々と新機種が生産され各施設に施工されている中、稼働台数自体は多くないが30年以上前に施工された古い機種も現存しており、保守対象となる種類も多岐に渡る。これにより、教育項目が日々増大する一方、古い機種に精通した熟練作業者も減少している。これに加え、既に製品の生産が終了している機種も保守対象となることから、教育用実機の不足による実機を使用した熟練作業者の技術伝承が困難であるという問題がある。 As for elevators, new models are being produced one after another and installed at each facility. Although the number of operating machines is not large, some old models installed more than 30 years ago still exist, and there are many types of maintenance targets. Cross over. As a result, the number of educational items is increasing daily, while the number of skilled workers who are familiar with old models is decreasing. In addition to this, since the models for which the production of products has already been completed are also subject to maintenance, there is a problem that it is difficult for a skilled worker who uses a real machine to pass on the technology because of a shortage of the real machine for education.

また、作業の中には、人の目視で機械部品の摩耗状態や発錆状態などを判断している項目があり、このような作業項目は熟練度に依拠することから、保守作業の質のばらつきにつながる可能性がある。 In addition, there are some items of work that visually judge the wear state and rust state of machine parts, and such work items depend on the skill level. This can lead to variability.

また関連のある技術として、以下のものが開示されている。 The following are disclosed as related technologies.

特開2017−204094号公報JP, 2017-204094, A

機械部品の摩耗状態や発錆状態について目視判定を実施する作業では、対象物を注視する必要がある。これに対し、特許文献1の技術では、例えば経験不十分な作業者の迷いによる視線の揺らぎによって視点が対象物上を通過しただけでも、対象物を注視した時間(停留時間)としてカウントする。よって、特許文献1の技術では、対象物を注視せずとも優秀な熟練作業者と判定される場合がある。 It is necessary to pay attention to the target object in the work of visually determining the wear state and rusting state of the mechanical parts. On the other hand, in the technique of Patent Document 1, even when the viewpoint passes over the target object due to fluctuations in the line of sight caused by the operator's inexperienced hesitation, for example, it is counted as the time at which the target object is focused (stop time). Therefore, in the technique of Patent Document 1, it may be determined as an excellent skilled worker without gazing at the object.

本発明は、このような従来技術の事情に鑑みてなされたもので、その目的は、作業者の視点を検出し、これに基づき高い精度で保守作業に関する熟練度を判定する技術を提供することにある。 The present invention has been made in view of such circumstances of the prior art, and an object thereof is to provide a technique for detecting the viewpoint of an operator and determining the skill level regarding maintenance work with high accuracy based on the viewpoint. It is in.

本発明の熟練度判定システムは、作業者の熟練度を判定する熟練度判定システムであって、作業者の視野映像を撮像する外部撮像部と、前記作業者の視点の位置を検出する視点検出部と、前記外部撮像部により撮像される映像から、当該映像を構成するフレーム画像をそれぞれ切り出し、切り出し画像ごとに、映し出された作業対象物を認識するとともに、当該作業対象物の描画領域を、前記切り出し画像ごとに特定する対象物認識処理部と、前記対象物認識処理部によって特定される前記描画領域内に、前記視点検出部により検出された視点が位置しているか否かを、前記切り出し画像ごとに判定するマッチング処理部と、前記マッチング処理部の判定結果に基づき、前記作業者が規定時間を超えて前記描画領域内を注視していた注視時間、および、前記規定時間注視せずに前記描画領域を前記視点が通過した回数を導出し、前記注視時間および前記通過した回数に基づき、前記作業者による作業が適正に行われたか否かを判定する判定部と、前記判定部により判定される結果を表示する表示部と、を有する。 The skill level determination system of the present invention is a skill level determination system that determines the skill level of a worker, and an external image capturing unit that captures a visual field image of the worker and a viewpoint detection that detects the position of the viewpoint of the worker. Unit and the image captured by the external image capturing unit, the frame images forming the image are respectively cut out, and for each cut out image, the projected work target object is recognized, and the drawing area of the work target object is displayed. The object recognition processing unit specified for each cutout image, and whether the viewpoint detected by the viewpoint detection unit is located in the drawing area specified by the object recognition processing unit is cut out. A matching processing unit that determines each image, based on the determination result of the matching processing unit, the gaze time during which the worker has gazed within the drawing area for more than a specified time, and without gazing for the specified time. Determining the number of times the viewpoint has passed through the drawing area, and a determination unit that determines whether or not the work by the worker has been appropriately performed based on the gaze time and the number of times that the viewpoint has passed, and determination by the determination unit And a display unit for displaying the result.

本発明によれば、作業者の視点に基づき高い精度で作業者の熟練度を判定することができる。
上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。
According to the present invention, the skill level of a worker can be determined with high accuracy based on the viewpoint of the worker.
Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.

実施形態に係る熟練度判定システムの構成の一例を示す概略構成図である。It is a schematic block diagram which shows an example of a structure of the skill determination system which concerns on embodiment. 実施形態に係る熟練度判定システムの使用態様の一例を示す模式図である。It is a schematic diagram which shows an example of the use aspect of the skill determination system which concerns on embodiment. 実施形態に係る視点検出デバイスのハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the viewpoint detection device which concerns on embodiment. 実施形態に係る熟練度判定システムの動作例を示すフローチャートである。6 is a flowchart showing an operation example of the skill level determination system according to the embodiment. 実施形態に係る注視状態および通過状態(不注視状態)の一例を示す説明図である。It is explanatory drawing which shows an example of the gaze state and passing state (non-gaze state) which concern on embodiment. 実施形態に係る判定結果のデータ構成例を示す図である。It is a figure which shows the data structural example of the determination result which concerns on embodiment. 実施形態に係る判定処理の一例を示すフローチャートである。6 is a flowchart illustrating an example of determination processing according to the embodiment. 実施形態に係る判定結果の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the determination result which concerns on embodiment.

以下、図面を参照しつつ、本発明に係る実施形態について詳細に説明する。 Hereinafter, embodiments according to the present invention will be described in detail with reference to the drawings.

図1は、本実施形態に係る熟練度判定システムを示す概略構成図である。また、図2は本実施形態に係る熟練度判定システムの使用状態の一例を示す模式図である。熟練度判定システム1は、視点検出デバイス10と、現場端末20とを有し、これらが無線もしくは有線により接続されている構成となっている。 FIG. 1 is a schematic configuration diagram showing a skill level determination system according to the present embodiment. Further, FIG. 2 is a schematic diagram showing an example of a usage state of the skill level determination system according to the present embodiment. The skill level determination system 1 has a viewpoint detection device 10 and a field terminal 20, which are connected to each other wirelessly or by wire.

視点検出デバイス10は、本実施形態ではメガネ型のウェアラブル端末であるスマートグラスとするが、装着者の視点を検出する公知なアイトラッカーを適用してもよい。視点検出デバイス10は、視点検出部2と、外部撮像部3とを有する。視点検出部2は、作業者11の眼球の動きの映像を例えばCCD(Charge Coupled Device)カメラなどを用いて取得し、作業者11の視点の位置情報(以下、視点座標と称する)を検出する。外部撮像部3は、作業対象物13を含んだ視野映像である視野内画像12を、例えばCCDカメラなどを用いて取得する。視点検出部2により得られる視点座標および外部撮像部3により得られる映像データは、逐次現場端末20に送信される。 In the present embodiment, the viewpoint detection device 10 is made of smart glasses, which are glasses-type wearable terminals, but a known eye tracker that detects the viewpoint of the wearer may be applied. The viewpoint detection device 10 has a viewpoint detection unit 2 and an external imaging unit 3. The viewpoint detection unit 2 acquires an image of the movement of the eyeball of the worker 11 by using, for example, a CCD (Charge Coupled Device) camera, and detects position information of the viewpoint of the worker 11 (hereinafter, referred to as viewpoint coordinates). .. The external imaging unit 3 acquires the in-field image 12 that is a field-of-view image including the work target 13 by using, for example, a CCD camera. The viewpoint coordinates obtained by the viewpoint detection unit 2 and the video data obtained by the external image pickup unit 3 are sequentially transmitted to the on-site terminal 20.

現場端末20は、ノート型やタブレット型のコンピュータもしくはスマートフォンであり、対象物認識処理部4と、マッチング処理部5と、判定部6と、指標値登録部7と、表示部8と、蓄積部9とを有する。 The site terminal 20 is a notebook or tablet computer or smartphone, and has an object recognition processing unit 4, a matching processing unit 5, a determination unit 6, an index value registration unit 7, a display unit 8, and a storage unit. 9 and.

対象物認識処理部4は、外部撮像部3が撮像した映像データを構成するフレーム画像を、数フレームごとに切り出し、この切り出し画像内における作業対象物13やその周囲に映し出されている各周辺部品の輪郭を、それぞれ抽出する。この「周辺部品」には、作業者の手など身体の一部や作業に用いる工具なども含むものとする。そして対象物認識処理部4は、例えば既存の自動学習プログラムを用いて、作業対象物13や各周辺部品が何であるかを特定するとともに、切り出し画像内での作業対象物13や周辺部品が占める描画領域の座標を取得する。対象物認識処理部4は、特定した各物体の識別情報と、各描画領域座標とを対応付けて、マッチング処理部5、判定部6に出力する。 The target object recognition processing unit 4 cuts out frame images constituting the video data captured by the external imaging unit 3 for every several frames, and the work target 13 in the cut-out image and each peripheral component displayed around it. The contours of are extracted respectively. The "peripheral parts" include a part of the body such as a worker's hand and tools used for the work. Then, the target object recognition processing unit 4 specifies what the work target 13 and each peripheral component are, for example, by using an existing automatic learning program, and the work target 13 and the peripheral component occupy in the cutout image. Get the coordinates of the drawing area. The target object recognition processing unit 4 associates the identification information of each identified object with each drawing area coordinate and outputs it to the matching processing unit 5 and the determination unit 6.

マッチング処理部5は、視点検出部2が検出した視点座標、映し出された各物体(作業対象物13や各周辺部品)の識別情報、各描画領域座標を取得する。そしてマッチング処理部5は、視点座標がいずれの領域内にあるのか判定することで、作業者11が何を見ていたかを判定するマッチング処理を行う。マッチング処理部5は、作業者11が見ていた物体の識別情報を、判定結果として出力する。 The matching processing unit 5 acquires the viewpoint coordinates detected by the viewpoint detection unit 2, the identification information of each projected object (work target 13 and each peripheral component), and each drawing area coordinate. Then, the matching processing unit 5 performs matching processing for determining what the operator 11 was looking by determining in which area the viewpoint coordinates are located. The matching processing unit 5 outputs the identification information of the object viewed by the worker 11 as a determination result.

判定部6は、マッチング処理部5の判定結果を切り出し画像ごとに取得し、フレームレートなど、切り出した画像間の時間間隔(ここでは規定値とする)を用いて、作業対象物13上やその周辺部品上に視点があった時間、もしくは視点が無かった時間を算出する。また判定部6は、指標値登録部7に事前に記憶されている、熟練作業者の指標値を用いて、作業者11による作業が適正に行われたか否かを判定する。この判定手法については後述する。 The determination unit 6 acquires the determination result of the matching processing unit 5 for each cut-out image, and uses the time interval between the cut-out images (here, a specified value) such as the frame rate, on the work target 13 or the work target 13. The time when there is a viewpoint on the peripheral parts or the time when there is no viewpoint is calculated. Further, the determination unit 6 determines whether or not the work by the worker 11 is properly performed by using the index value of the skilled worker, which is stored in advance in the index value registration unit 7. This determination method will be described later.

上記に加え、判定部6は、対象物認識処理部4から得られる、作業対象物13や各周辺部品の識別情報と各領域座標とに基づき、各物体の画像内の配置関係に基づきいずれの作業項目を行っているのかを判定する。 In addition to the above, the determination unit 6 determines which one of the objects is based on the arrangement information in the image of each object based on the identification information of the work object 13 and each peripheral component and each area coordinate obtained from the object recognition processing unit 4. Determine if you are doing a work item.

表示部8は、判定部6での判定結果を表示し、作業者11に提示する。蓄積部9は、判定部6での判定結果を格納して蓄積する。 The display unit 8 displays the determination result of the determination unit 6 and presents it to the worker 11. The accumulation unit 9 stores and accumulates the determination result of the determination unit 6.

尚、視点検出デバイス10は、教育研修に実機を用いない場合に、作業対象物13をVR(バーチャルリアリティ)上で3Dモデルとして再現し表示させるために、図示しない3D表示部を更に備えてもよい。また熟練度判定システム1は、VR上の3Dモデルを操作するための図示しない入力装置を更に有してもよい。この3D表示部および入力装置には制限はなく、例えばVRの3D表示を実施するのに公知なヘッドマウントディスプレイを適用してもよい。 The viewpoint detection device 10 may further include a 3D display unit (not shown) in order to reproduce and display the work target 13 as a 3D model on a VR (virtual reality) when an actual machine is not used for education and training. Good. The skill level determination system 1 may further include an input device (not shown) for operating the 3D model on the VR. There is no limitation on the 3D display unit and the input device, and for example, a known head mounted display may be applied to implement the 3D display of VR.

現場端末20の対象物認識処理部4、マッチング処理部5、判定部6、指標値登録部7、表示部8および蓄積部9の各機能を、視点検出デバイス10(スマートグラス)内で実施してもよい。また、蓄積部9については、サーバなどの処理装置を別途設けて、この処理装置内に蓄積する構成であってもよい。 The functions of the object recognition processing unit 4, the matching processing unit 5, the determination unit 6, the index value registration unit 7, the display unit 8 and the storage unit 9 of the on-site terminal 20 are implemented in the viewpoint detection device 10 (smart glasses). May be. Further, the storage unit 9 may be configured such that a processing device such as a server is separately provided and the processing unit stores the processing device.

図3は、視点検出デバイス10のハードウェア構成例を示す図である。視点検出デバイス10は、コントローラ101、入力デバイス110、出力デバイス111を有する。コントローラ101は、視点検出デバイス10の内部で動作する各ハードウェアを制御する。コントローラ101は、以下の構成を有する。 FIG. 3 is a diagram illustrating a hardware configuration example of the viewpoint detection device 10. The viewpoint detection device 10 has a controller 101, an input device 110, and an output device 111. The controller 101 controls each hardware that operates inside the viewpoint detection device 10. The controller 101 has the following configuration.

CPU102(CPU:Central Processing Unit)は、フラッシュメモリ104に記憶されているプログラムを、RAM103(RAM:Random access memory)に展開し、演算実行する処理装置である。CPU102は、プログラムを演算実行することで、コントローラ101内部の各ハードウェアを統括的に制御する。RAM103は、揮発性メモリであり、CPU102が処理する際のワークメモリである。RAM103は、CPU102がプログラムを演算実行している間、必要なデータを一時的に記憶する。 A CPU 102 (CPU: Central Processing Unit) is a processing device that expands a program stored in a flash memory 104 into a RAM 103 (RAM: Random access memory) and executes an operation. The CPU 102 comprehensively controls each hardware inside the controller 101 by executing a program. The RAM 103 is a volatile memory and is a work memory when the CPU 102 processes. The RAM 103 temporarily stores necessary data while the CPU 102 is executing a program.

フラッシュメモリ104は、データを不揮発的に記憶する、データの書き替え可能な補助記憶装置である。フラッシュメモリ104は、CPU102が演算実行するプログラムや、制御データを記憶する。本実施形態では、以降に説明する各機能を提供するプログラムや各種データが事前にフラッシュメモリ104内に導入されている。 The flash memory 104 is a data rewritable auxiliary storage device that stores data in a nonvolatile manner. The flash memory 104 stores programs executed by the CPU 102 and control data. In the present embodiment, programs and various data that provide each function described below are installed in the flash memory 104 in advance.

ネットワークI/F106は、現場端末20などの外部機器との間で行われるデータ通信の制御を担う機器である。ネットワークI/F106によるデータ通信は、例えばIEEE802.11系やIEEE802.15.1系などの通信規格に適合した無線通信で行われるものとするが、ケーブル接続による有線通信であっても構わない。 The network I/F 106 is a device that controls data communication performed with an external device such as the field terminal 20. The data communication by the network I/F 106 is performed by wireless communication conforming to a communication standard such as IEEE802.11 system or IEEE802.15.1 system, but may be wired communication by cable connection.

入力I/F107は、入力デバイス110との間で信号の入出力を制御するインターフェイスである。出力I/F108は、CPU102から指示を受けて、出力デバイス111に画像を描画させるか、音声を出力させる。 The input I/F 107 is an interface that controls input/output of signals with the input device 110. The output I/F 108 receives an instruction from the CPU 102 and causes the output device 111 to draw an image or output a sound.

入力デバイス110は、視点を検出するための内向きのCCDセンサ、外部(視野内画像)を撮像する外向きのCCDセンサ、音声を集音するマイク、物理的な押下スイッチなどのデバイス群やセンサ群である。出力デバイス111は、音声を出力するためのスピーカや、スマートグラスのレンズ部上に映像を映し出す小型プロジェクタなどである。 The input device 110 is a device group or sensor such as an inward CCD sensor for detecting a viewpoint, an outward CCD sensor for capturing the outside (in-field image), a microphone for collecting sound, and a physical push switch. It is a group. The output device 111 is a speaker for outputting sound, a small projector for displaying an image on the lens portion of smart glasses, or the like.

尚、現場端末20も、従前のコンピュータであることから、図3に示すハードウェア構成と同様に、CPU、RAM、フラッシュメモリ、ネットワークI/F、入出力用のI/F、各種入力デバイス、出力デバイスを有している。尚、補助記憶装置として、例えばハードディスクドライブが備えられてもよい。また、入力デバイスとしては、マウス、キーボード、タッチパネルであってもよい。出力デバイスとしては、液晶モニタなどであってもよい。 Since the field terminal 20 is also a conventional computer, the CPU, RAM, flash memory, network I/F, I/F for input/output, various input devices, as well as the hardware configuration shown in FIG. Has an output device. A hard disk drive, for example, may be provided as the auxiliary storage device. Further, the input device may be a mouse, a keyboard or a touch panel. The output device may be a liquid crystal monitor or the like.

以下、熟練度判定システム1の動作例について説明する。尚、ここでは、昇降機であるエレベーターの保守作業におけるブレーキ整備の教習訓練を例にして説明する。また、作業対象物13は、ブレーキの摺動部品の1つであるコアであるものとして説明する。 Hereinafter, an operation example of the skill level determination system 1 will be described. In addition, here, the training training of the brake maintenance in the maintenance work of the elevator which is the elevator will be described as an example. Further, the work target 13 will be described as a core that is one of sliding parts of the brake.

エレベーターのブレーキは、エレベーターの停止動作を担うため重要部品の一つであるため、定期的な整備作業が実施されており、分解、清掃、点検、組立の4つの作業項目により構成されている。作業項目内では、例えば下記のS1〜S6に示す重要ポイント(バイタルポイント)など、目視で判定する項目が含まれている。本実施形態では、これらS1〜S6の項目ごとに熟練度の判定処理を行うものとする。
S1.主レバーの汚れ錆、傷、摩耗、固渋を確認したか。
S2.ピンの汚れ錆、傷、摩耗、固渋を確認したか。
S3.コイルボビンの摩耗を確認したか。
S4.コアの傷を確認したか。
S5.プッシュロッドの傷、摩耗、錆、緩みを確認したか。
S6.DUブッシュの摩耗を確認したか。
The elevator brake is one of the important parts because it is responsible for the stopping operation of the elevator. Therefore, regular maintenance work is performed, and the brake is composed of four work items: disassembly, cleaning, inspection, and assembly. The work items include items visually determined, such as important points (vital points) shown in S1 to S6 below. In this embodiment, the skill level determination process is performed for each of these items S1 to S6.
S1. Did you check the main lever for dirt, rust, scratches, wear, and astringency?
S2. Did you check the pins for rust, scratches, wear, and astringency?
S3. Did you confirm the wear of the coil bobbin?
S4. Did you check the core for scratches?
S5. Did you check the push rod for scratches, wear, rust, or looseness?
S6. Did you check the wear of the DU bush?

図4は、実施形態に係る熟練度判定システム1の動作例を示すフローチャートである。作業者11は、作業の前に、まずは視点検出デバイス10を頭に装着し、システムの起動操作を行う。そして視野内画像取得工程(S001)において、外部撮像部3は、作業者11の視野映像を逐次取得してこれを現場端末20に送信する。 FIG. 4 is a flowchart showing an operation example of the skill level determination system 1 according to the embodiment. Before the work, the worker 11 first mounts the viewpoint detection device 10 on his/her head and performs a system startup operation. Then, in the in-field-of-view image acquisition step (S001), the external imaging unit 3 sequentially acquires the field-of-view image of the worker 11 and transmits this to the on-site terminal 20.

一方、視線検出工程(S002)において、視点検出部2は作業者11の視点座標を検出して、これを逐次現場端末20に送信する。 On the other hand, in the line-of-sight detection step (S002), the viewpoint detection unit 2 detects the viewpoint coordinates of the worker 11 and sequentially transmits them to the on-site terminal 20.

対象物認識工程(S003)において、対象物認識処理部4は、外部撮像部3が撮像した映像データから数フレームごとに画像データを切り出す。そして対象物認識処理部4は、切り出された視野内画像12から、作業対象物13および周辺部品の認識を行う。自動認識の方法は、例えば、対象物認識処理部4が自動学習プログラムを実行することで行われる。対象物認識処理部4は、事前に、作業対象物13について視点方向、角度、照度および背景情報の条件を変化させた複数の画像データに対して、画像データに映し出された作業対象物13、作業者11の身体なども含めた周辺部品をアノテーションし、アノテーション結果を自動学習させておくことで、視野内画像12内に何が写っているかを認識する。 In the target object recognition step (S003), the target object recognition processing unit 4 cuts out image data from the video data captured by the external imaging unit 3 every several frames. Then, the target object recognition processing unit 4 recognizes the work target object 13 and peripheral components from the cut-out in-field image 12. The automatic recognition method is performed, for example, by the object recognition processing unit 4 executing an automatic learning program. The target object recognition processing unit 4 has a plurality of pieces of image data in which the conditions of the viewpoint direction, angle, illuminance, and background information of the work target object 13 are changed in advance, and the work target object 13 projected on the image data, By annotating peripheral parts including the body of the worker 11 and automatically learning the annotation result, what is captured in the in-field image 12 is recognized.

マッチング処理工程(S004)において、マッチング処理部5は、視野内画像12に視点座標を重ね合わせる。これにより、作業者11が視野内画像12内のどこを見ており、何を見ていたかを認識することができる。マッチング処理部5は、例えば作業対象物13の領域と視点座標とが重なる場合、作業者11は作業対象物13を見ていたと判定し、重ならない場合、作業者11は作業対象物13を見ていなかったと判定する。周辺部品についても同様であり、視野内画像12内に映し出された周辺部品の領域と視点座標とが重なる場合、作業者11は当該周辺部品を見ていたと判定する。尚、ここでの「見ていた」は、単に視点が作業対象物13や周辺部品の上に位置していたことを意味し、「注視していたか」を問うものではない。 In the matching processing step (S004), the matching processing unit 5 superimposes the viewpoint coordinates on the in-field image 12. As a result, it is possible to recognize where the worker 11 is looking in the field-of-view image 12 and what he/she is looking at. For example, when the region of the work target 13 and the viewpoint coordinates overlap, the matching processing unit 5 determines that the worker 11 is looking at the work target 13, and when they do not overlap, the worker 11 looks at the work target 13. It is determined that it was not. The same applies to the peripheral parts, and when the area of the peripheral parts displayed in the in-field image 12 and the viewpoint coordinates overlap, the worker 11 determines that the peripheral parts are viewed. It should be noted that the word “looking at” here simply means that the viewpoint is located on the work target 13 and the peripheral parts, and does not ask “whether it is gazing”.

作業認識工程(S005)において、判定部6は、ブレーキ整備作業手順の中で、ブレーキ整備作業手順の順番と、その作業の主体となる対象物を見ていた注視率の高さと、視野内画像12の領域内に図示しない作業者の手または図示しない工具が認識されていること、とを条件として、作業者11がブレーキ整備作業手順のどの工程(ここでは上記のS1〜S6)を実施しているかを認識する。 In the work recognition step (S005), the determination unit 6 determines, in the brake maintenance work procedure, the order of the brake maintenance work procedure, the high gaze rate at which the object serving as the main body of the work is observed, and the image within the visual field. Under the condition that an operator's hand (not shown) or a tool (not shown) is recognized in the area of 12, the operator 11 performs which step (here, S1 to S6) of the brake maintenance work procedure. To recognize

判定部6は、熟練度の判定工程(S006)において、得られる各種データと指標値登録部7に登録されている熟練作業者(経験者)の視点分析結果(指標値)とを基に、作業者11の熟練度を判定する。 In the skill level determination step (S006), the determination unit 6 determines, based on various data obtained and the viewpoint analysis result (index value) of the skilled worker (experienced person) registered in the index value registration unit 7, The skill level of the worker 11 is determined.

熟練度の判定は、例えば、作業者11の視点が作業対象物13や他の周辺部品に重なる時間と、作業者11の視点が作業対象物13や他の周辺部品を通過する回数と、を用いて実施する。 The skill level is determined by, for example, the time when the viewpoint of the worker 11 overlaps the work target 13 and other peripheral parts, and the number of times the viewpoint of the worker 11 passes the work target 13 and other peripheral parts. It is carried out using.

図5は実施形態に係る視点の軌跡を例示する図であり、図5(A)は、作業対象物13の表面の摩耗や錆を目視判定すべく注視していることを図示している。作業者11が注視している場合、視点23の軌跡24aは、作業対象物13の描画領域の範囲内をなぞる。または、視点23の軌跡24aは、作業者11の手、把持している工具、その他周辺部品の描画領域の範囲内を、必要に応じてなぞる。これに対して、図5(B)は、作業対象物13に対して視点23の軌跡24bが単に通過し、作業対象物13を注視していないことを例示している。 FIG. 5 is a diagram illustrating a locus of viewpoints according to the embodiment, and FIG. 5A illustrates that the user is paying attention to visually judge wear or rust on the surface of the work target 13. When the worker 11 is gazing, the trajectory 24a of the viewpoint 23 traces within the drawing area of the work target 13. Alternatively, the locus 24a of the viewpoint 23 traces within the range of the drawing area of the hand of the worker 11, the gripped tool, and other peripheral components as necessary. On the other hand, FIG. 5B illustrates that the locus 24 b of the viewpoint 23 simply passes through the work target 13 and the work target 13 is not being watched.

本実施形態では、作業者11の視点が作業対象物13や周辺部品に重なる時間と、作業者11の視点が作業対象物13上や周辺部品を通過する回数と、をそれぞれ導出し、目視判定の伴う作業項目ごとに、点数化して作業の良否判定を行う。 In the present embodiment, the time when the viewpoint of the worker 11 overlaps the work target 13 and the peripheral parts and the number of times the viewpoint of the worker 11 passes over the work target 13 and the peripheral parts are respectively derived and visually determined. For each work item accompanied by, the quality of the work is judged by scoring.

この熟練度の判定工程(S006)において、判定部6は、熟練作業者の指標値(「良」判定とするか「否」判定とするかの指標値)を指標値登録部7から取得し、例えば次式(1A)、(1B)、(1C)の各数式を用いて判定する。いずれかが「否」判定となった場合、判定部6は、総合判定を「否」判定とし不合格とする。
「良」判定:Δt+Δt>ΔtB1×80(%) ・・・ (1A)
「良」判定:(Δt+Δt)/Δt>ΔtB2×80(%) ・・・ (1B)
「良」判定:N<(NBM+cnst) ・・・ (1C)
ただし、Δt:作業対象物13を注視していた時間
Δt:作業対象物13の周辺部品を注視していた時間
ΔtB1、ΔtB2:熟練作業者の作業分析結果(指標値)
Δt:作業項目ごとの総作業時間
:視点が作業対象物13を通過した回数
BM:熟練作業者の作業分析結果(指標値)
cnst:定数
尚、ΔtB1は、熟練作業者が同じ作業を実施したときに得られた、作業対象物を注視していた時間と周辺部品を注視していた時間との合計値である。またΔtB2は、この合計値を、熟練作業者が同作業を実施したときの総作業時間で除算した値である。NBMは、熟練作業者が同作業を実施したときの、視点が作業対象物を通過した回数である。本実施形態では、このように指標値を設けるが、これに限らない。
In this skill level determination step (S006), the determination unit 6 obtains the index value of the skilled worker (index value of “good” determination or “not” determination) from the index value registration unit 7. For example, the determination is made by using the following equations (1A), (1B), and (1C). When any one of the determinations is “No”, the determination unit 6 sets the comprehensive determination to “No” and fails.
“Good” judgment: Δt M +Δt S >Δt B1 ×80 (%) (1A)
“Good” judgment: (Δt M +Δt S )/Δt A >Δt B2 ×80(%) (1B)
“Good” judgment: N M <(N BM +cnst) (1C)
However, Δt M : time during which the work target 13 is focused Δt S : time during which peripheral parts of the work target 13 are focused Δt B1 , Δt B2 : work analysis result (index value) of a skilled worker
Delta] t A: total working time of each work item N M: number viewpoint has passed through the workpiece 13 N BM: skilled operator work analysis (index values)
cnst: a constant Δt B1 is a total value of the time during which the skilled worker performs the same work and the time during which the work target is focused and the peripheral parts are focused. Further, Δt B2 is a value obtained by dividing the total value by the total work time when the skilled worker performs the same work. NBM is the number of times the viewpoint has passed the work target when a skilled worker performs the same work. In the present embodiment, the index value is set as described above, but the present invention is not limited to this.

例えば作業対象物13上を視点が規定時間以内に横切った場合、注視せずに通過したものとみなす。例えば、視点が、作業対象物13の領域に進入したその瞬間とする切り出し画像と、当該視点が、作業対象物13の領域から外れた瞬間とする切り出し画像との時間差が、上記の規定時間を超えない場合、判定部6は、注視せずに視点が作業対象物13を単に横切ったものとして判定する。作業対象物13の周辺部品に関しても同様の判定手法とする。そして判定部6は、単に横切った時間については、上記のΔt、Δtには加算せず、Nを1つカウントアップする。 For example, when the viewpoint crosses the work target 13 within a specified time, it is considered that the work object 13 has passed without gazing. For example, the time difference between the cut-out image at the moment when the viewpoint enters the area of the work target 13 and the cut-out image at the moment when the viewpoint deviates from the area of the work target 13 is equal to the specified time. When it does not exceed, the determination unit 6 determines that the viewpoint simply crosses the work target 13 without gazing. The same determination method is applied to the peripheral parts of the work target 13. Then, the determination unit 6 does not add the time across which is simply crossed to the above Δt M and Δt S, and increments N M by one.

逆に、視点が作業対象物13の領域に進入したその瞬間とする切り出し画像と、外れた瞬間とする切り出し画像との時間差が、上記の規定時間を超えた場合、作業者11は作業対象物13を注視しているものとして扱い、この時間をΔtに累積加算する(周辺部品に関しても同様)。尚、このように注視していると判定する場合、Nをカウントアップしない。 On the contrary, when the time difference between the cut-out image at the moment when the viewpoint enters the area of the work target 13 and the cut-out image at the moment when the viewpoint deviates exceeds the specified time, the worker 11 determines that the work target 13 is treated as being watched, and this time is cumulatively added to Δt M (same for peripheral parts). In the case of determining that the gazing thus, not to count up the N M.

判定部6は、前式(1A)、(1B)、(1C)を用いて、作業項目(上記のS1〜S6)ごとに判定を行う。そして判定部6は、前式(1A)、(1B)、(1C)の算出結果のうち、全てが「良」判定となる場合、総合判定を「良」として合格とし、いずれか一つでも「否」判定となった場合、総合判定を「否」として不合格とする。 The determination unit 6 makes a determination for each work item (S1 to S6 described above) using the formulas (1A), (1B), and (1C). Then, when all of the calculation results of the above formulas (1A), (1B), and (1C) are “good”, the judging unit 6 regards the comprehensive judgment as “good” and passes, and even one of them If the result is "No", the comprehensive judgment is "No" and the test is rejected.

図6は、判定部6による判定結果のデータ構成例を示した図である。判定テーブル25は、作業項目ごとに割り振られた管理番号26と、作業項目(上記のS1〜S6)の内容を記述した作業工程27と、前式(1A)、(1B)、(1C)の左辺の算出値となる作業者測定結果28とを含む。また判定テーブル25は、指標値登録部7から読み出した指標値に、例えば80(%)などの係数を演算した判定値29(前式(1A)、(1B)、(1C)の右辺の値)と、判定値29を基準(=100)とした場合の作業者測定結果28との割合(上限100)を算出したスコア値30とを含む。判定テーブル25は、前式(1A)、(1B)、(1C)による判定結果31と、判定結果31の全てが「良」判定となった場合は「良」判定とし、判定結果31のいずれかが「否」判定となった場合は「否」判定とする総合判定32とを有する。 FIG. 6 is a diagram showing a data configuration example of the determination result by the determination unit 6. The determination table 25 includes a management number 26 assigned to each work item, a work process 27 describing the contents of the work item (above S1 to S6), and the formulas (1A), (1B), (1C) The operator measurement result 28 that is the calculated value on the left side is included. Further, the determination table 25 has a determination value 29 (a value on the right side of the previous expressions (1A), (1B), and (1C)) obtained by calculating a coefficient such as 80 (%) on the index value read from the index value registration unit 7. ) And a score value 30 in which a ratio (upper limit 100) with the worker measurement result 28 when the determination value 29 is used as a reference (=100) is calculated. The determination table 25 determines whether the determination result 31 according to the above formulas (1A), (1B), and (1C) and the determination result 31 are all “good”. If the determination is “no”, the overall determination 32 is “no”.

尚、判定結果31の判定方法は、スコア値30を使用し、一定の数値以上を「良」判定としてもよい。また、総合判定32の判定方法は、判定結果31の「良」判定の個数が一定以上ある場合を「良」判定としてもよい。 In addition, the score value 30 may be used as the determination method of the determination result 31, and a certain value or more may be determined as “good”. Further, the determination method of the comprehensive determination 32 may be determined as “good” determination when the number of “good” determinations of the determination result 31 is equal to or more than a certain number.

また、図6に示す作業工程27については、上記のS1〜S6の重要ポイント(バイタルポイント)ごとに分けて格納されている。仮に上記のS1〜S6の順で保守作業を行う必要がある場合、本実施形態では、管理番号26もこの順序に応じて若い番号から順に採番される。そして判定部6は、ステップS005で得られる作業認識結果を用いて、管理番号26の順序(S1〜S6の順序)のとおりに作業が行われたかも判定する。 Further, the work process 27 shown in FIG. 6 is stored separately for each of the important points (vital points) of S1 to S6. If it is necessary to perform the maintenance work in the order of S1 to S6 described above, in the present embodiment, the management numbers 26 are also numbered in order from the smallest number according to this order. Then, the determination unit 6 also determines whether the work is performed in the order of the management number 26 (the order of S1 to S6) using the work recognition result obtained in step S005.

図7は、実施形態に係る判定部6による判定方法の一例を示すフローチャートである。各値算出工程(S101)において、判定部6は、マッチング処理工程(S004)での出力結果から判定に必要な各値(=Δt、Δt、Δt、N)を算出する。そして判定部6は、スコア算出工程(S102)において、判定値29を基準(=100)とした場合の作業者測定結果28との割合(上限100)から、スコア値30を算出する。 FIG. 7 is a flowchart showing an example of the determination method by the determination unit 6 according to the embodiment. In each value calculation step (S101), the determination unit 6 calculates each value (=Δt M , Δt S , Δt A , N M ) required for determination from the output result of the matching processing step (S004). Then, in the score calculation step (S102), the determination unit 6 calculates the score value 30 from the ratio (upper limit 100) to the worker measurement result 28 when the determination value 29 is used as the reference (=100).

また判定式による判定工程(S103)において、判定部6は、前式(1A)、(1B)、(1C)を用いた良否判定を行い、総合判定工程(S104、S105、S106)において、判定部6は、判定結果31の全てが「良」判定となった場合は「良」判定とし、判定結果31のいずれかが「否」判定となった場合は「否」判定とする。 In the determination step (S103) based on the determination formula, the determination unit 6 performs the quality determination using the above formulas (1A), (1B), and (1C), and in the comprehensive determination process (S104, S105, S106), the determination is performed. The unit 6 makes a “good” determination when all the determination results 31 are “good” determinations, and makes a “failure” determination when any of the determination results 31 is a “failure” determination.

上記の工程を終え、図4の判定結果の表示工程(S007)において、表示部8は、各判定結果を表示する。これにより、作業者11に作業項目ごとの熟練度と判定結果を示すことができる。 After the above steps are completed, in the determination result display step (S007) of FIG. 4, the display unit 8 displays each determination result. Thereby, the skill level and the determination result for each work item can be shown to the worker 11.

図8は、実施形態に係る判定結果表示画面の一例を示す図である。判定結果表示画面37は、判定テーブル25に格納された情報と同じ情報である作業工程27、スコア値30、判定結果31を表示する判定テーブル表示領域38を含む。このように良否の判定結果31のみならず、スコア値30を表示することで、作業者11は自身の行いがどの程度達しているのか(もしくは達していないのか)を、数値で把握することができる。また判定結果表示画面37は、総合判定結果32を表示する総合判定結果表示領域38aと、例えば作業工程27に対応した作業者11の作業時の視野内画像12を表示する作業振返り表示領域39とを表示する。 FIG. 8 is a diagram illustrating an example of the determination result display screen according to the embodiment. The judgment result display screen 37 includes a judgment table display area 38 for displaying the work process 27, the score value 30, and the judgment result 31 which are the same information as the information stored in the judgment table 25. In this way, by displaying not only the quality judgment result 31 but also the score value 30, the worker 11 can grasp how much (or not) the performance of his/her own work has reached by a numerical value. it can. Further, the determination result display screen 37 includes a comprehensive determination result display area 38a for displaying the comprehensive determination result 32 and a work reflection display area 39 for displaying the in-field-of-view image 12 of the worker 11 corresponding to the work process 27, for example. And are displayed.

作業振返り表示領域39は、作業者11への学習のために、図示しない熟練作業者の視野内画像を併せて表示してもよい。また作業振返り表示領域39は、作業項目ごとの総作業時間(Δt)に対する時系列データとして、作業対象物13を注視していた注視時間(Δt)、周辺部品を注視していた時間(Δt)、視点が作業対象物13を通過した回数(N)を、例えばガントチャートのように時系列でグラフ化して表示してもよい。このように表示することで、作業者11自身に熟練度の低い作業を認識させることができ、効率よく教育を実施することが可能である。 The work review display area 39 may also display an image within the field of view of a skilled worker (not shown) for learning by the worker 11. Further, the work review display area 39, as time-series data for the total work time (Δt A ) for each work item, the watch time (Δt M ) during which the work target 13 was watched and the time during which peripheral parts were watched. (Δt S ), the number of times the viewpoint has passed the work target 13 (N M ) may be displayed as a time series graph, for example, as in a Gantt chart. By displaying in this way, the worker 11 himself/herself can be made to recognize the work with low skill level, and it is possible to carry out the education efficiently.

図4の判定結果の蓄積工程(S008)では、熟練度の判定工程(S006)での良否判定結果とともに、作業対象物13を注視していた注視時間(Δt)、周辺部品を注視していた時間(Δt)、視点が作業対象物13を通過した回数(N)、作業項目ごとの総作業時間(Δt)を含めたデータが、蓄積部9に蓄積される。この蓄積されたデータは、今後行われる同作業の良否判定に用いられてもよい。すなわち判定部6は、蓄積した過去のデータの中で、「良」判定のデータを1もしくは複数読み出し、指標値や判定値を算出し(複数読み出した場合はその平均値を算出)、今現在行われている作業の結果とこの算出した指標値や判定値とを比較する機能を有してもよい。 In the accumulation process (S008) of the determination result of FIG. 4, together with the quality determination result in the skill determination process (S006), the attention time (Δt M ) during which the work target 13 was observed and peripheral components are observed. The time (Δt S ), the number of times the viewpoint has passed the work target 13 (N M ), and the total work time (Δt A ) for each work item are stored in the storage unit 9. The accumulated data may be used for quality determination of the work to be performed later. That is, the determination unit 6 reads out one or more “good” determination data from the accumulated past data, calculates an index value and a determination value (when multiple readings are performed, calculates an average value thereof), and presently It may have a function of comparing the result of the work being performed with the calculated index value or judgment value.

本実施形態では、自動学習プログラムを実行するなど、人工知能技術を用いて物体の識別を行っているが、例えば作業対象物に二次元バーコードなどの機械読取可能なマークを事前に貼り付けておき、これを読み取って当該作業対象物を特定する実装でもよい。 In the present embodiment, an object is identified using an artificial intelligence technique such as executing an automatic learning program. For example, a machine-readable mark such as a two-dimensional barcode is attached to a work target in advance. Alternatively, it may be mounted by reading this and specifying the work target.

また本実施形態では、「良」判定、「否」判定の2つを判定結果としているが、判定値を複数設けることで、「良」判定と「否」判定との間の中間層の結果を得る実装でもよい。 Further, in the present embodiment, two determinations, “good” determination and “fail” determination, are used as the determination result, but by providing a plurality of determination values, the result of the intermediate layer between the “good” determination and the “fail” determination May be implemented.

また、対象物認識工程(S003)において、切り出し画像内に作業マニュアルが映し出されており、マッチング処理工程(S004)や熟練度の判定工程(S006)において、作業マニュアルが注視されていると判定する場合、この作業マニュアルを注視した時間を累積し、この累積時間が閾値を超える場合は、「否」判定などとしてもよい。 Further, in the object recognition step (S003), the work manual is displayed in the cut-out image, and in the matching processing step (S004) and the skill level determination step (S006), it is determined that the work manual is being watched. In this case, the time taken to gaze at this work manual may be accumulated, and if this accumulated time exceeds the threshold value, a “no” determination may be made.

尚、上記実施形態における「熟練作業者」がどの程度熟練しているのかについては、特に限定されない。すなわち「熟練作業者」は、少なくとも1回は、作業者11が行った作業と同じ作業を実施したことのある経験者を含む。 Note that the degree to which the “skilled worker” in the above embodiment is skilled is not particularly limited. That is, the “skilled worker” includes an experienced person who has performed the same work as the work performed by the worker 11 at least once.

上記実施形態では、エレベーターなどの昇降機設備についての保守作業や保守作業の教育に適用させた態様を一例にして説明したが、対象となる設備は、これに限定されない。また、本実施形態の使用用途は、教育や技術伝承などに限定されず、保守作業全般に適用される。 In the above-described embodiment, the mode applied to the maintenance work and the education of the maintenance work for the elevator equipment such as the elevator has been described as an example, but the target equipment is not limited to this. In addition, the usage of the present embodiment is not limited to education and technology transfer, but is applied to all maintenance work.

また上記実施形態では、「作業対象物」を、設備の部品(より具体的にはエレベーターのコア)とし、この「作業対象物」の描画領域を注視したか否かを判定する態様について説明したが、これに限らない。例えば、部品に付着した汚れや錆、傷、摩耗した部分など、部品の特異箇所を特定し、これを「作業対象物」として扱ってもよい。このように扱うことで、部品全体のみならず、その特異箇所(汚れや錆、傷、摩耗した部分)を注視したか否かの判定を行うことができる。 Further, in the above-described embodiment, a mode has been described in which the "work target" is a component of the facility (more specifically, the core of the elevator), and it is determined whether or not the drawing area of the "work target" is watched. However, it is not limited to this. For example, a peculiar portion of the component such as a stain, rust, scratch, or worn portion attached to the component may be identified and treated as the “work target”. By handling in this way, it is possible to determine whether not only the entire part but also its peculiar part (dirt, rust, scratch, or worn part) is focused.

また、図6に示すとおり、本実施形態ではいずれの作業項目に対しても同じ係数(80%など)を用いて判定値を算出しているが、作業項目ごとに異なる係数を設けても構わない。 Further, as shown in FIG. 6, in the present embodiment, the determination value is calculated using the same coefficient (80% or the like) for any work item, but a different coefficient may be provided for each work item. Absent.

本実施形態により、迷いによる視点の揺らぎなどの影響を取り除き、熟練度の判定精度を向上させることができる。 According to the present embodiment, it is possible to eliminate the influence of fluctuation of the viewpoint due to hesitation and improve the accuracy of determining the skill level.

尚、本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 It should be noted that the present invention is not limited to the above-described embodiment, and various modifications are included. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those including all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add/delete/replace other configurations with respect to a part of the configurations of the respective embodiments. Further, the above-mentioned respective configurations, functions, processing units, processing means, etc. may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Further, each of the above-described configurations, functions, and the like may be realized by software by a processor interpreting and executing a program that realizes each function. Information such as a program, a table, and a file that realizes each function can be stored in a memory, a recording device such as a hard disk and an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, and a DVD.

1:熟練度判定システム
2:視点検出部
3:外部撮像部
4:対象物認識処理部
5:マッチング処理部
6:判定部
7:指標値登録部
8:表示部
9:蓄積部
10:視点検出デバイス
20:現場端末
1: Skill level determination system 2: Viewpoint detection unit 3: External imaging unit 4: Object recognition processing unit 5: Matching processing unit 6: Determination unit 7: Index value registration unit 8: Display unit 9: Storage unit 10: Viewpoint detection Device 20: Field terminal

Claims (5)

作業者の熟練度を判定する熟練度判定システムであって、
作業者の視野映像を撮像する外部撮像部と、
前記作業者の視点の位置を検出する視点検出部と、
前記外部撮像部により撮像される映像から、当該映像を構成するフレーム画像をそれぞれ切り出し、切り出し画像ごとに、映し出された作業対象物を認識するとともに、当該作業対象物の描画領域を、前記切り出し画像ごとに特定する対象物認識処理部と、
前記対象物認識処理部によって特定される前記描画領域内に、前記視点検出部により検出された視点が位置しているか否かを、前記切り出し画像ごとに判定するマッチング処理部と、
前記マッチング処理部の判定結果に基づき、前記作業者が規定時間を超えて前記描画領域内を注視していた注視時間、および、前記規定時間注視せずに前記描画領域を前記視点が通過した回数を導出し、前記注視時間および前記通過した回数に基づき、前記作業者による作業が適正に行われたか否かを判定する判定部と、
前記判定部により判定される結果を表示する表示部と、
を有する熟練度判定システム。
A skill level determination system for determining the skill level of an operator,
An external image pickup unit for picking up a visual field image of an operator,
A viewpoint detection unit that detects the position of the viewpoint of the worker,
From the video imaged by the external imaging unit, the frame images forming the video image are respectively cut out, and the work target object that is projected is recognized for each cut out image, and the drawing area of the work target object is set to the cutout image. An object recognition processing unit that identifies each
In the drawing area specified by the object recognition processing unit, whether or not the viewpoint detected by the viewpoint detection unit is located, a matching processing unit that determines for each cutout image,
Based on the determination result of the matching processing unit, the gaze time during which the worker has gazed within the drawing area for more than a specified time, and the number of times the viewpoint has passed through the drawing area without gazing for the specified time. Deriving the, based on the gaze time and the number of times passed, a determination unit that determines whether or not the work by the worker is properly performed,
A display unit that displays a result determined by the determination unit,
Skill determination system having.
請求項1に記載の熟練度判定システムにおいて、
前記作業者が行う作業と同じ作業を経験者が実施した際の注視時間および通過した回数に関する数値を、指標値として記憶する指標値登録部を有し、
前記判定部は、前記指標値登録部に記憶されている指標値に基づき、前記作業者による作業が適正に行われたか否かを判定することを特徴とする熟練度判定システム。
In the skill level determination system according to claim 1,
A numerical value relating to the gaze time and the number of times when an experienced person performs the same work as the work performed by the worker, and has an index value registration unit that stores the index value,
The proficiency level determination system, wherein the determination unit determines whether or not the work by the worker is properly performed based on the index value stored in the index value registration unit.
請求項1に記載の熟練度判定システムにおいて、
さらに、前記判定部による判定結果、注視時間、通過した回数を対応付けたデータを蓄積する蓄積部を有し、
前記判定部は、前記蓄積部に蓄積された過去のデータの中で、作業が適正に行われたとの判定結果に対応した注視時間および通過した回数を取得し、これらを用いて、前記作業者による作業が適正に行われたか否かを判定することを特徴とする熟練度判定システム。
In the skill level determination system according to claim 1,
Further, the determination unit by the determination unit, a gaze time, a storage unit for accumulating data associated with the number of times passed,
The determination unit, in the past data accumulated in the accumulation unit, acquires the gaze time and the number of times of passing corresponding to the determination result that the work was properly performed, using these, the worker A proficiency level determination system characterized by determining whether or not the work by is properly performed.
請求項1に記載の熟練度判定システムにおいて、
前記判定部は、さらに、前記注視時間および前記通過した回数を用いて、前記作業についてのスコア値を算出し、
前記表示部は、前記スコア値を表示することを特徴とする熟練度判定システム。
In the skill level determination system according to claim 1,
The determination unit further calculates a score value for the work by using the gaze time and the number of times of passing,
The skill level determination system, wherein the display unit displays the score value.
請求項1に記載の熟練度判定システムにおいて、
前記判定部は、前記作業者が行う作業項目ごとに、前記注視時間および前記通過した回数を導出し、前記作業項目ごとに、作業が適正に行われたか否かを判定し、
前記表示部は、前記作業項目ごとに、前記判定部による判定結果を表示することを特徴とする熟練度判定システム。
In the skill level determination system according to claim 1,
The determination unit, for each work item performed by the worker, derives the gaze time and the number of times passed, for each work item, determines whether or not the work is properly performed,
The skill level determination system, wherein the display unit displays a determination result by the determination unit for each of the work items.
JP2018222187A 2018-11-28 2018-11-28 Skill level judgment system Active JP7011569B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018222187A JP7011569B2 (en) 2018-11-28 2018-11-28 Skill level judgment system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018222187A JP7011569B2 (en) 2018-11-28 2018-11-28 Skill level judgment system

Publications (2)

Publication Number Publication Date
JP2020087091A true JP2020087091A (en) 2020-06-04
JP7011569B2 JP7011569B2 (en) 2022-02-10

Family

ID=70908364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018222187A Active JP7011569B2 (en) 2018-11-28 2018-11-28 Skill level judgment system

Country Status (1)

Country Link
JP (1) JP7011569B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112312203A (en) * 2020-08-25 2021-02-02 北京沃东天骏信息技术有限公司 Video playing method, device and storage medium
JP7082384B1 (en) 2021-05-28 2022-06-08 浩平 田仲 Learning system and learning method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006190166A (en) * 2005-01-07 2006-07-20 Sharp Corp Working time management system, working time management method, working time management program and recording medium recording the program
WO2007105792A1 (en) * 2006-03-15 2007-09-20 Omron Corporation Monitor and monitoring method, controller and control method, and program
JP2009075937A (en) * 2007-09-21 2009-04-09 Victor Co Of Japan Ltd Equipment operation setting device
JP2013178294A (en) * 2012-02-28 2013-09-09 Mitsubishi Heavy Ind Ltd Operation skill level evaluation system
JP2014174879A (en) * 2013-03-12 2014-09-22 Aisin Aw Co Ltd Information processor and information program
JP2018180090A (en) * 2017-04-05 2018-11-15 コニカミノルタ株式会社 Work education system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006190166A (en) * 2005-01-07 2006-07-20 Sharp Corp Working time management system, working time management method, working time management program and recording medium recording the program
WO2007105792A1 (en) * 2006-03-15 2007-09-20 Omron Corporation Monitor and monitoring method, controller and control method, and program
JP2009075937A (en) * 2007-09-21 2009-04-09 Victor Co Of Japan Ltd Equipment operation setting device
JP2013178294A (en) * 2012-02-28 2013-09-09 Mitsubishi Heavy Ind Ltd Operation skill level evaluation system
JP2014174879A (en) * 2013-03-12 2014-09-22 Aisin Aw Co Ltd Information processor and information program
JP2018180090A (en) * 2017-04-05 2018-11-15 コニカミノルタ株式会社 Work education system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
五福 明夫 他3名: "プラント操作習熟への熟練者視線傾向の利用効果の実験的検討", ヒューマンインタフェース学会誌, vol. 11, no. 3, JPN6021052464, 25 August 2009 (2009-08-25), JP, pages 21 - 32, ISSN: 0004675890 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112312203A (en) * 2020-08-25 2021-02-02 北京沃东天骏信息技术有限公司 Video playing method, device and storage medium
JP7082384B1 (en) 2021-05-28 2022-06-08 浩平 田仲 Learning system and learning method
JP2022182673A (en) * 2021-05-28 2022-12-08 浩平 田仲 Learning system and learning method

Also Published As

Publication number Publication date
JP7011569B2 (en) 2022-02-10

Similar Documents

Publication Publication Date Title
US9959578B2 (en) Work management system and work management method
JP2014211763A5 (en)
US10311617B2 (en) Operation support device, operation support method, and non-transitory computer readable recording medium
WO2018008702A1 (en) Behavior detection system
JP2020087091A (en) Skill degree determination system
JP6270488B2 (en) Operator monitoring control device and operator monitoring control method
CN107817778A (en) Educate servicing unit
WO2020003547A1 (en) Content presentation system and content presentation method
JP2007102482A (en) Automatic counting apparatus, program, and method
CN106462230A (en) Method and system for operating a display apparatus
US10593223B2 (en) Action evaluation apparatus, action evaluation method, and computer-readable storage medium
JP7191560B2 (en) content creation system
JP7165108B2 (en) Work training system and work training support method
JP6900766B2 (en) Customer service necessity judgment device, customer service necessity judgment method, and program
US11458664B2 (en) Injection molding system
KR20150082746A (en) Hand measurement system to order customized golf gloves
JP2018013958A (en) Operator monitoring device
JP7418711B1 (en) Attention extraction system and attention extraction method
JP2019067206A (en) Detection system, detection method, and detection program
JP7430362B2 (en) Abnormal behavior detection system
WO2022091571A1 (en) Work procedure updating device, work procedure updating method, and program
US20230386074A1 (en) Computer vision and machine learning to track surgical tools through a use cycle
US20230103948A1 (en) Work estimation apparatus, work estimation method, and non-transitory computer-readable storage medium
US20210081678A1 (en) Image processing apparatus and image processing method
JP2023106888A (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220114

R150 Certificate of patent or registration of utility model

Ref document number: 7011569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150