JP2021032736A - Wear amount measurement system - Google Patents

Wear amount measurement system Download PDF

Info

Publication number
JP2021032736A
JP2021032736A JP2019153951A JP2019153951A JP2021032736A JP 2021032736 A JP2021032736 A JP 2021032736A JP 2019153951 A JP2019153951 A JP 2019153951A JP 2019153951 A JP2019153951 A JP 2019153951A JP 2021032736 A JP2021032736 A JP 2021032736A
Authority
JP
Japan
Prior art keywords
unit
image
wear amount
feature point
wear
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019153951A
Other languages
Japanese (ja)
Inventor
崇 奥村
Takashi Okumura
崇 奥村
弘樹 高見
Hiroki Takami
弘樹 高見
史十 岩崎
Fumito Iwasaki
史十 岩崎
聡志 猪瀬
Satoshi Inose
聡志 猪瀬
金野 浩之
Hiroyuki Konno
浩之 金野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Construction Machinery Co Ltd
Original Assignee
Hitachi Construction Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Construction Machinery Co Ltd filed Critical Hitachi Construction Machinery Co Ltd
Priority to JP2019153951A priority Critical patent/JP2021032736A/en
Priority to PCT/JP2020/031866 priority patent/WO2021039731A1/en
Publication of JP2021032736A publication Critical patent/JP2021032736A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/24Safety devices, e.g. for preventing overload
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M13/00Testing of machine parts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M13/00Testing of machine parts
    • G01M13/02Gearings; Transmission mechanisms
    • G01M13/021Gearings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume

Abstract

To provide a wear amount measurement system that can more accurately measure the amount of wear of a part of a component of a working machine from an image including the component.SOLUTION: A wear amount measurement system 1 comprises calculation devices 2A, 3A that calculate the amount of wear of a component of a working machine 5 from a captured image including the component. The calculation devices 2A, 3A comprise: a feature point extraction unit 22 in which extraction of feature points is machine-trained by using, as teacher data, a learning image g1 including a specific kind of component of the working machine 5 and a plurality of feature points a1-a10, b1-b10 that specify the shape of a worn part of the component in the learning image g1, and which extracts, from a captured image G1, feature points A1-A10, B1-B10 of a part in the captured image G1; and a wear amount calculation unit 37A that calculates the amount of wear of the part from the feature points A1-A10, B1-B10.SELECTED DRAWING: Figure 3

Description

本発明は、作業機械の部品を含む画像から部品の部位の摩耗量を演算する摩耗量測定システムに関する。 The present invention relates to a wear amount measuring system that calculates the amount of wear of a part of a part from an image including a part of a work machine.

従来から、作業機械の継続的な使用により、作業機械を構成する部品が摩耗することがあり、この部品の摩耗状態を管理することは、作業機械を安定して使用するためには重要である。 Conventionally, continuous use of a work machine may cause wear of parts that make up the work machine, and it is important to manage the wear state of these parts in order to use the work machine in a stable manner. ..

このような観点から、たとえば、特許文献1には、作業機械の摩耗部品の画像を取得し、取得した画像から摩耗部品の摩耗縁部の測定を行い、測定した摩耗縁部の結果から、摩耗部品の摩耗状態を特定する摩耗判定システムが提案されている。 From this point of view, for example, Patent Document 1 obtains an image of a worn part of a work machine, measures the worn edge of the worn part from the acquired image, and wears from the result of the measured wear edge. A wear determination system that identifies the wear state of a part has been proposed.

特表2016−504643号公報Special Table 2016-504643

しかしながら、特許文献1に示す摩耗判定システムでは、取得した画像から、摩耗する部品の部位の摩耗状態を特定するが、その摩耗部品の撮像角度により、同じ摩耗状態でも、その摩耗状態の結果の差異が大きくなり、正確な摩耗の状態を特定することができないことがある。 However, in the wear determination system shown in Patent Document 1, the wear state of the part to be worn is specified from the acquired image, but the difference in the result of the wear state even in the same wear state depending on the imaging angle of the wear part. May become large and it may not be possible to pinpoint the exact state of wear.

本発明は、このような点を鑑みてなされたものであり、その目的とするところは、作業機械の部品を含む画像から部品の部位の摩耗量をより正確に測定することができる摩耗量測定システムを提供する。 The present invention has been made in view of these points, and an object of the present invention is to measure the amount of wear that can more accurately measure the amount of wear of a part of a part from an image including a part of a work machine. Provide a system.

前記課題を鑑みて、本発明に係る摩耗量測定システムは、作業機械の部品を含む撮像画像から前記部品の摩耗量を演算する演算装置を備えた摩耗量測定システムであって、前記演算装置は、前記作業機械の特定の種類の部品を含む学習用画像と、前記学習用画像において前記部品が摩耗する部位の形状を特定する複数の特徴点と、を教師データとして、前記特徴点の抽出が機械学習され、前記撮像画像から前記撮像画像における前記部位の特徴点を抽出する特徴点抽出部と、前記特徴点から、前記部位の摩耗量を算出する摩耗量算出部と、を備える。 In view of the above problems, the wear amount measuring system according to the present invention is a wear amount measuring system including a calculation device for calculating the wear amount of the parts from an image captured including the parts of the work machine. , The learning image including a specific type of part of the work machine and a plurality of feature points for specifying the shape of the part where the part is worn in the learning image are used as training data to extract the feature point. It is provided with a feature point extraction unit that is machine-learned and extracts feature points of the portion in the captured image from the captured image, and a wear amount calculation unit that calculates the wear amount of the portion from the feature points.

本発明によれば、特徴点抽出部は、作業機械の特定の種類の部品を含む学習用画像と、前記学習用画像において前記部品が摩耗する部位の形状を特定する複数の特徴点と、を教師データとして、特徴点の抽出が機械学習されたものである。したがって、たとえば、撮像画像が、摩耗量を算出することができる撮像角度で、その部品の部位の形状を撮像している場合には、特徴点が抽出されるが、そのような撮像角度で撮像されていない場合には、特徴点が抽出されない。このような結果、摩耗量が精度良く算出できる撮像画像に対して特徴点が抽出されるので、作業機械の部品を含む画像から部品の部位の摩耗量をより正確に測定することができる。 According to the present invention, the feature point extraction unit includes a learning image including a specific type of component of a work machine, and a plurality of feature points that specify the shape of a portion where the component wears in the learning image. As teacher data, the extraction of feature points is machine-learned. Therefore, for example, when the captured image captures the shape of the part of the component at an imaging angle at which the amount of wear can be calculated, feature points are extracted, but the captured image is captured at such an imaging angle. If not, the feature points are not extracted. As a result, since the feature points are extracted from the captured image in which the amount of wear can be calculated accurately, the amount of wear of the part of the part can be measured more accurately from the image including the part of the work machine.

本発明の第1〜第3実施形態に係る摩耗量測定システムの測定対象となる作業機械の模式的側面図である。It is a schematic side view of the work machine which is the object of measurement of the wear amount measuring system which concerns on 1st to 3rd Embodiment of this invention. 本発明の第1実施形態に係る摩耗量測定システムの模式的概念図である。It is a schematic conceptual diagram of the wear amount measurement system which concerns on 1st Embodiment of this invention. 図1に示す摩耗量測定システムの演算装置のブロック図である。It is a block diagram of the arithmetic unit of the wear amount measurement system shown in FIG. 図3に示す部位検出部および特徴点抽出部の機械学習を説明するためのブロック図である。It is a block diagram for demonstrating the machine learning of the part detection part and the feature point extraction part shown in FIG. 図3に示す部位検出部による学習用画像を示した模式図である。It is a schematic diagram which showed the image for learning by the part detection part shown in FIG. 図3に示す特徴点抽出部による学習用画像を示した模式図である。It is a schematic diagram which showed the learning image by the feature point extraction part shown in FIG. 図3に示す部位検出部と特徴点抽出部による結果をスプロケットの画像に表示した模式図である。It is a schematic diagram which displayed the result by the part detection part and the feature point extraction part shown in FIG. 3 on the image of a sprocket. 図5Aに示す結果から、摩耗量算出部による摩耗量を算出する方法を説明するための図である。It is a figure for demonstrating the method of calculating the wear amount by the wear amount calculation part from the result shown in FIG. 5A. 図3に示す交換時期算出部による部品交換の算出を説明するためのグラフである。It is a graph for demonstrating the calculation of the component replacement by the replacement time calculation unit shown in FIG. 図3に示す基準ゲージ設定部での設定後の通信端末の表示画面を示した図である。It is a figure which showed the display screen of the communication terminal after setting in the reference gauge setting part shown in FIG. 図3に示す摩耗量測定システムによる作業フロー図である。It is a work flow figure by the wear amount measuring system shown in FIG. 図4に示す部位検出部および特徴点抽出部の変形例に係るブロック図である。It is a block diagram which concerns on the modification of the part detection part and the feature point extraction part shown in FIG. 本発明の第2実施形態に係る摩耗量測定システムの演算装置のブロック図である。It is a block diagram of the arithmetic unit of the wear amount measurement system which concerns on 2nd Embodiment of this invention. 図11に示すガイド設定部による撮影用ガイドを映像に設定した模式図である。It is a schematic diagram which set the shooting guide by the guide setting part shown in FIG. 11 in an image. 図11に示す特徴点修正部による修正を説明するための模式図である。It is a schematic diagram for demonstrating the correction by the feature point correction part shown in FIG. 図11に示す摩耗量測定システムによる作業フロー図である。It is a work flow figure by the wear amount measuring system shown in FIG. 図11に示す変形例に係るブロック図である。It is a block diagram which concerns on the modification shown in FIG. 本発明の第3実施形態に係る摩耗量測定システムの演算装置のブロック図である。It is a block diagram of the arithmetic unit of the wear amount measurement system which concerns on 3rd Embodiment of this invention. 図2に示す作業機械のバケットのツースの撮像画像に撮影用ガイドを設定した模式図である。It is a schematic diagram which set the shooting guide in the captured image of the tooth of the bucket of the work machine shown in FIG. 図17Aに示すツースの学習用画像にその領域と特徴点を設定した模式図である。It is a schematic diagram which set the region and the feature point in the learning image of the tooth shown in FIG. 17A. ツースの撮像画像にその領域と特徴点を表示した模式図である。It is a schematic diagram which displayed the area and the feature point in the captured image of tooth. 図2に示す作業機械のローラの撮像画像に撮影用ガイドを設定した模式図である。It is a schematic diagram in which a shooting guide is set in the captured image of the roller of the work machine shown in FIG. 図18Aに示すローラの学習用画像にその領域と特徴点を設定した模式図である。It is a schematic diagram which set the region and the feature point in the learning image of the roller shown in FIG. 18A. ローラの撮像画像にその領域と特徴点を表示した模式図である。It is a schematic diagram which displayed the region and the feature point in the image taken by the roller. 図2に示す作業機械のシュープレートの撮像画像に撮影用ガイドを設定した模式図である。It is a schematic diagram in which a shooting guide is set in the captured image of the shoe plate of the work machine shown in FIG. 図19Aに示すシュープレートの学習用画像にその領域と特徴点を設定した模式図である。It is a schematic diagram which set the region and the feature point in the learning image of the shoe plate shown in FIG. 19A. シュープレートの撮像画像にその領域と特徴点を表示した模式図である。It is a schematic diagram which displayed the region and the feature point in the image taken by the shoe plate. 図2に示す作業機械のリンクの撮像画像に撮影用ガイドを設定した模式図である。It is a schematic diagram in which a shooting guide is set in the captured image of the link of the work machine shown in FIG. 図20Aに示すリンクの学習用画像にその領域と特徴点を設定した模式図である。It is a schematic diagram which set the region and the feature point in the learning image of the link shown in FIG. 20A. リンクの撮像画像にその領域と特徴点を表示した模式図である。It is a schematic diagram which displayed the area and the feature point in the captured image of a link.

以下、図面を参照して本発明に係る摩耗量測定システムのいくつかの実施形態を説明する。 Hereinafter, some embodiments of the wear amount measuring system according to the present invention will be described with reference to the drawings.

1.作業機械5について
本実施形態では、摩耗の測定の対象である作業機械5は、特に限定はされないが、たとえば、油圧ショベルなどである。以下では、まず本実施形態の摩耗量測定システム1の測定対象である作業機械5の構成の一例を説明し、次に本実施形態の摩耗量測定システム1の詳細に説明する。
1. 1. About the work machine 5 In the present embodiment, the work machine 5 to be measured for wear is not particularly limited, but is, for example, a hydraulic excavator or the like. Hereinafter, an example of the configuration of the work machine 5 to be measured by the wear amount measurement system 1 of the present embodiment will be described first, and then the wear amount measurement system 1 of the present embodiment will be described in detail.

図1に示すように、作業機械5は、油圧負荷として、クローラ式の走行体51と、走行体51上に旋回可能に設けられた旋回体52と、旋回体52に取り付けられた多関節式のフロント作業機53とを備えている。旋回体52の前部左右の一方側にはキャビン54が設けられ、旋回体52の前部中央には上下方向に回動して掘削等の作業を行うフロント作業機53が設けられている。旋回体52の後部には機体の重量のバランスを保つカウンタウェイト56が設けられている。 As shown in FIG. 1, the work machine 5 has a crawler type traveling body 51, a swivel body 52 rotatably provided on the traveling body 51, and an articulated type mounted on the swivel body 52 as a hydraulic load. It is equipped with a front work machine 53. A cabin 54 is provided on one of the left and right sides of the front portion of the swivel body 52, and a front working machine 53 that rotates in the vertical direction to perform work such as excavation is provided in the center of the front portion of the swivel body 52. A counterweight 56 for maintaining the balance of the weight of the machine body is provided at the rear part of the swivel body 52.

走行体51には前端部にアイドラ51A1が設けられ、後端部に不図示の走行モータにより駆動されるスプロケット51A2が設けられる。このアイドラ51A1とスプロケット51A2とには、リンク(リンクアッセンブリ)51Bが架け渡されており、アイドラ51A1とスプロケット51A2の間には、リンク51Bを支持するローラ51Cが設けられている。リンク51Bには、地面に設置するシュープレート51Dが取り付けられている。走行体51をこのように構成することで、作業機械5が不整地で移動可能となる。 The traveling body 51 is provided with an idler 51A1 at the front end and a sprocket 51A2 driven by a traveling motor (not shown) at the rear end. A link (link assembly) 51B is bridged between the idler 51A1 and the sprocket 51A2, and a roller 51C for supporting the link 51B is provided between the idler 51A1 and the sprocket 51A2. A shoe plate 51D to be installed on the ground is attached to the link 51B. By configuring the traveling body 51 in this way, the work machine 5 can move on rough terrain.

フロント作業機53は、たとえば、旋回体52の前側に設けられ、油圧駆動装置によって駆動されて掘削作業などの作業を行う機械である。フロント作業機53は、たとえば、ブーム53A、アーム53B、およびバケット53Cが連接されており、これらは油圧シリンダ53a、53b、53cにより動作する。バケット53Cの先端には、複数のツース(爪部)53Dが幅方向に間隔を空けて固定されている。 The front work machine 53 is, for example, a machine provided on the front side of the swivel body 52 and driven by a hydraulic drive device to perform work such as excavation work. In the front working machine 53, for example, a boom 53A, an arm 53B, and a bucket 53C are connected to each other, and these are operated by hydraulic cylinders 53a, 53b, and 53c. A plurality of teeth (claw portions) 53D are fixed to the tip of the bucket 53C at intervals in the width direction.

ここで、走行体51による作業機械5の走行の際には、スプロケット(部品)51A2の歯(部位)、ローラ(部品)51Cのリンク51Bを支持する支持部(部位)、リンク(部品)51Bの連接部分(部位)、シュープレート(部品)51Dが接地する凸部(部位)が摩耗する。さらに、複数のツース(部品)53Dは、掘削作業などの作業に伴い、その先端が摩耗する。したがって、以下の第1および2実施形態では、摩耗量測定システム1で、スプロケット51A2の歯51aの摩耗量を測定し、第3実施形態では、これらの部品の部位の摩耗量を測定する。 Here, when the work machine 5 is driven by the traveling body 51, the teeth (parts) of the sprocket (part) 51A2, the support portion (part) supporting the link 51B of the roller (part) 51C, and the link (part) 51B The connecting portion (part) and the convex portion (part) on which the shoe plate (part) 51D touches the ground are worn. Further, the tips of the plurality of teeth (parts) 53D are worn due to work such as excavation work. Therefore, in the following first and second embodiments, the wear amount measuring system 1 measures the wear amount of the teeth 51a of the sprocket 51A2, and in the third embodiment, the wear amount of the parts of these parts is measured.

〔第1実施形態〕
2.摩耗量測定システム1の構成について
図2に示すように、第1実施形態に係る摩耗量測定システム1は、複数の通信端末3、3、…で撮像された作業機械5を構成する部品の部位の画像から、各通信端末3の演算装置3A、およびネットワークを介したサーバ2の演算装置2Aにより、その部位の摩耗量を演算する装置である。本実施形態では、摩耗量測定システム1は、サーバ2を備えるが、たとえば、上述した部位の画像からその部位の摩耗量を演算する一連のアプリケーションを演算装置3Aの記憶部3bにインストールできるであれば、各通信端末3のみで構成されていてもよい。
[First Embodiment]
2. Configuration of Wear Amount Measurement System 1 As shown in FIG. 2, the wear amount measurement system 1 according to the first embodiment is a part of a component constituting a work machine 5 imaged by a plurality of communication terminals 3, 3, ... It is a device that calculates the amount of wear of the portion by the arithmetic device 3A of each communication terminal 3 and the arithmetic device 2A of the server 2 via the network. In the present embodiment, the wear amount measuring system 1 includes the server 2. For example, a series of applications for calculating the wear amount of the part from the image of the part described above can be installed in the storage unit 3b of the arithmetic unit 3A. For example, it may be composed of only each communication terminal 3.

サーバ2は、演算装置2Aを少なくとも備えており、演算装置2AはCPU等で構成される演算部2aと、ROM、RAMなどで構成される記憶部2bとを備えている。本実施形態では、記憶部2bには、後述する学習用画像などの教師データ、部位検出部21および特徴点抽出部22を実行するためのプログラムが記憶されており、演算部2aは、これらのプログラムを実行する装置である。なお、本明細書において図3以降に示す、部位検出部21および特徴点抽出部22を、記憶部2bで記憶されたプログラムを演算部2aで実行する部分として示している。サーバ2は、たとえば事前登録された各通信端末3により、アクセス可能になっており、各通信端末3で撮像された画像、部位の摩耗量等の演算結果が受信され、これらの結果が記憶部2bに記憶されていてもよい。 The server 2 includes at least an arithmetic unit 2A, and the arithmetic unit 2A includes an arithmetic unit 2a composed of a CPU and the like, and a storage unit 2b composed of a ROM, a RAM, and the like. In the present embodiment, the storage unit 2b stores teacher data such as a learning image described later, a program for executing the site detection unit 21 and the feature point extraction unit 22, and the calculation unit 2a stores these. A device that executes a program. In this specification, the site detection unit 21 and the feature point extraction unit 22 shown in FIGS. 3 and 3 and later are shown as a portion in which the program stored in the storage unit 2b is executed by the calculation unit 2a. The server 2 is accessible by, for example, each pre-registered communication terminal 3, and receives calculation results such as an image captured by each communication terminal 3 and the amount of wear of a part, and these results are stored in a storage unit. It may be stored in 2b.

通信端末3は、一般的な携帯端末またはタブレット端末であり、演算装置3Aと、タッチパネルディスプレイ3Dと、撮像装置3Eとを備えている。演算装置3Aは、CPU等で構成される演算部3aと、ROM、RAMなどで構成される記憶部3bとを備えている。記憶部3bには、後述する画像取得部33、抽出判定部34、摩耗量算出部37A等を実行するためのプログラムが記憶されており、演算部3aは、このプログラムを実行する装置である。なお、本明細書において図3以降に示す、画像取得部33、抽出判定部34、摩耗量算出部37A等は、記憶部3bで記憶されたプログラムを演算部3aで実行する部分として示している。 The communication terminal 3 is a general mobile terminal or tablet terminal, and includes an arithmetic unit 3A, a touch panel display 3D, and an image pickup device 3E. The arithmetic unit 3A includes an arithmetic unit 3a composed of a CPU and the like, and a storage unit 3b composed of a ROM, RAM and the like. The storage unit 3b stores a program for executing the image acquisition unit 33, the extraction determination unit 34, the wear amount calculation unit 37A, etc., which will be described later, and the calculation unit 3a is a device that executes this program. In this specification, the image acquisition unit 33, the extraction determination unit 34, the wear amount calculation unit 37A, and the like shown in FIGS. 3 and 3 are shown as parts for executing the program stored in the storage unit 3b in the calculation unit 3a. ..

タッチパネルディスプレイ3Dは、表示装置3Bと入力装置3Cで構成される。表示装置3Bは、表示画面であり、撮像装置3Eで撮像された映像および画像、演算装置3Aで演算された演算結果等が表示される。入力装置3Cは、演算装置2Aに操作者が所定のデータ等を入力する装置である。入力装置3Cは、操作者が、撮像画像を取得するための指令信号を撮像装置3Eに入力する入力ボタン(アイコン)、表示装置(表示画面)3Bに表示された、後述する部品の部位の特徴点の位置を修正するマーカ(アイコン)など有している。 The touch panel display 3D is composed of a display device 3B and an input device 3C. The display device 3B is a display screen, and displays images and images captured by the image pickup device 3E, calculation results calculated by the calculation device 3A, and the like. The input device 3C is a device in which an operator inputs predetermined data or the like to the arithmetic unit 2A. The input device 3C is a feature of a part of a component described later, which is displayed on an input button (icon) and a display device (display screen) 3B in which an operator inputs a command signal for acquiring an image to the image pickup device 3E. It has a marker (icon) that corrects the position of the point.

撮像装置3Eは、デジタルカメラなどのデジタル映像およびデジタル画像を撮像する装置であり、本実施形態では、摩耗測定を実行するアプリケーションの起動に合わせた所定のタイミングで、映像(動画像)を表示装置3Bに表示する。ただし、この動画像は、記憶部3bには記録されない。入力装置3Cから操作者が入力した入力信号により、画像取得部33は、表示装置3Bに表示した映像(動画像)を利用して、撮像装置3Eは、撮像画像(静止画像)を取得し、この撮像画像は、記憶部3bに記録される。 The image pickup device 3E is a device for capturing a digital image and a digital image of a digital camera or the like, and in the present embodiment, the image pickup device 3E is a device for displaying an image (moving image) at a predetermined timing according to the activation of an application for executing wear measurement. Display on 3B. However, this moving image is not recorded in the storage unit 3b. Based on the input signal input by the operator from the input device 3C, the image acquisition unit 33 uses the image (moving image) displayed on the display device 3B, and the image pickup device 3E acquires the captured image (still image). This captured image is recorded in the storage unit 3b.

3.サーバ2の演算装置2Aについて
本実施形態では、サーバ2の演算装置2Aは、ソフトウエアとして、部位検出部21と特徴点抽出部22とで構成される識別装置20を備えている。この識別装置20は、上述したスプロケットの画像から、スプロケット51A2の歯51aを識別するものであり、サーバ2の記憶部2bにインストールされた学習部40により生成され、演算部2aで実行される。しかしながら、識別装置20を通信端末3の演算装置3Aが備えていてもよい。なお、図3は、学習済みモデルである部位検出部21と特徴点抽出部22による利活用を説明するためのブロック図であるため、図3では、学習フェーズで用いられる学習部40を省略している。
3. 3. About the arithmetic unit 2A of the server 2 In the present embodiment, the arithmetic unit 2A of the server 2 includes an identification device 20 composed of a site detection unit 21 and a feature point extraction unit 22 as software. The identification device 20 identifies the teeth 51a of the sprocket 51A2 from the above-mentioned image of the sprocket, is generated by the learning unit 40 installed in the storage unit 2b of the server 2, and is executed by the calculation unit 2a. However, the identification device 20 may be provided in the arithmetic unit 3A of the communication terminal 3. Since FIG. 3 is a block diagram for explaining the utilization by the part detection unit 21 and the feature point extraction unit 22, which are trained models, the learning unit 40 used in the learning phase is omitted in FIG. ing.

本実施形態では、部位検出部21は、作業機械5の部品としてスプロケット51A2の画像から、その部品の部位である歯の位置を検出するものである。部位検出部21は、作業機械5の特定の種類の部品としてスプロケット51A2を含む学習用画像と、学習用画像においてスプロケット51A2の摩耗する部位である歯51aの領域(具体的には矩形状の領域)とを、教師データとし、この教師データから歯51aの領域の検出が機械学習されたものである。したがって、部位検出部21は、撮像装置3Eで撮像した撮像画像(具体的には画像取得部33で取得した画像)から撮像画像におけるスプロケット51A2の歯51aの領域Rを検出する。 In the present embodiment, the site detection unit 21 detects the position of the tooth, which is the site of the component, from the image of the sprocket 51A2 as a component of the work machine 5. The site detection unit 21 includes a learning image including the sprocket 51A2 as a specific type of component of the work machine 5, and a region of teeth 51a (specifically, a rectangular region) which is a wearable portion of the sprocket 51A2 in the learning image. ) Is used as teacher data, and the detection of the region of the tooth 51a is machine-learned from this teacher data. Therefore, the site detection unit 21 detects the region R of the teeth 51a of the sprocket 51A2 in the captured image from the captured image (specifically, the image acquired by the image acquisition unit 33) captured by the imaging device 3E.

図4に示すように、部位検出部21は、局所特徴量抽出部21aと、物体識別器21bと、領域特定部21cと、を備えている。局所特徴量抽出部21aは、撮像画像に含まれる矩形状の複数ピクセル群となる領域を所定数のピクセルずつずらして選択しながら、その画像の局所の特徴量を抽出するものである。本実施形態では、領域ごとのHOG(Histograms of Oriented Gradients)特徴量(特徴ベクトル)を抽出する。HOG特徴量は、画像の輝度の勾配をヒストグラム化したものである。 As shown in FIG. 4, the site detection unit 21 includes a local feature amount extraction unit 21a, an object classifier 21b, and a region identification unit 21c. The local feature amount extraction unit 21a extracts the local feature amount of the image while selecting a region to be a rectangular plurality of pixels included in the captured image by shifting by a predetermined number of pixels. In the present embodiment, HOG (Histograms of Oriented Gradients) features (feature vectors) for each region are extracted. The HOG feature amount is a histogram of the gradient of the brightness of the image.

物体識別器21bは、作業機械5のスプロケット(部品)51A2のうち、歯(部位)51aの画像G1の特徴を機械学習したものである。具体的には、物体識別器21bは、SVM(Support Vector Machine)により機械学習した識別関数であり、学習部40により学習される。 The object detector 21b is machine-learned from the features of the image G1 of the teeth (parts) 51a of the sprocket (parts) 51A2 of the work machine 5. Specifically, the object classifier 21b is a discriminant function machine-learned by an SVM (Support Vector Machine), and is learned by the learning unit 40.

本実施形態では、学習部40は、サーバ2の演算装置2Aに備えられている。しかしながら、学習部40をたとえば他のシステムに備え、サーバ2の演算装置2Aに、他のシステムで生成した部位検出部21と特徴点抽出部22とをインストールしてもよい。図5Aに示すように、学習部40は、スプロケット(部品)51A2の歯(部位)51aが写った多数の学習用画像g1が記憶された学習用画像記憶部41と、この学習用画像g1ごとに紐付けられて歯51aの領域r1、r2…を記憶した部位領域記憶部42と、を備えている。部位領域記憶部42は、学習用画像g1において矩形状の領域r1、r2を2つ記憶しており、具体的には、領域r1、r2の4隅の座標を記憶している。 In the present embodiment, the learning unit 40 is provided in the arithmetic unit 2A of the server 2. However, the learning unit 40 may be provided in another system, for example, and the site detection unit 21 and the feature point extraction unit 22 generated by the other system may be installed in the arithmetic unit 2A of the server 2. As shown in FIG. 5A, the learning unit 40 includes a learning image storage unit 41 in which a large number of learning images g1 in which the teeth (parts) 51a of the sprocket (part) 51A2 are captured, and each of the learning image g1. It is provided with a site region storage unit 42 that is associated with and stores regions r1, r2, ... Of the teeth 51a. The site area storage unit 42 stores two rectangular areas r1 and r2 in the learning image g1, and specifically, stores the coordinates of the four corners of the areas r1 and r2.

学習部40は、特徴点記憶部43、第1学習部44、および第2学習部45、をさらに備えている。第1学習部44は、SVMを有した学習器であり、物体識別器21bを生成する。ここで、SVMは、基本的に2クラス判別器である。学習フェーズにおいて、スプロケット(部品)51A2の歯(部位)51aが写っている領域を特定した多数の学習用画像(正例)のそれぞれから抽出したHOG特徴量と、スプロケット51A2の歯が写っていない(または、スプロケットの歯と認識し難い)領域の多数の学習用画像(負例)から、それぞれから抽出したHOG特徴量との識別境界をSVMにより機械学習する。なお、本実施形態では、学習用画像記憶部41に記憶された学習用画像g1に対して、局所特徴量抽出部21aで特徴量を抽出した画像を、第1学習部44に順次入力する。機械学習にあたっては、部位領域記憶部42で記憶された領域r1、r2の画像を正例とし、それ以外の領域の画像を負例として用いられ、このような機械学習により、物体識別器21bが生成される。 The learning unit 40 further includes a feature point storage unit 43, a first learning unit 44, and a second learning unit 45. The first learning unit 44 is a learning device having an SVM, and generates an object classifier 21b. Here, the SVM is basically a two-class discriminator. In the learning phase, the HOG features extracted from each of a large number of learning images (normal examples) that identify the area where the teeth (parts) 51a of the sprocket (part) 51A2 are shown, and the teeth of the sprocket 51A2 are not shown. From a large number of learning images (negative examples) in a region (or difficult to recognize as sprocket teeth), the discrimination boundary with the HOG feature extracted from each is machine-learned by SVM. In the present embodiment, the images extracted by the local feature amount extraction unit 21a are sequentially input to the first learning unit 44 with respect to the learning image g1 stored in the learning image storage unit 41. In machine learning, the images of the areas r1 and r2 stored in the site area storage unit 42 are used as a positive example, and the images of the other areas are used as a negative example. Will be generated.

利活用時には、学習済みモデルである物体識別器21bに、局所特徴量抽出部21aで撮像画像G1にピクセル群ごとに抽出したHOG特徴量を入力する。この結果、図6Aに示すように、撮像画像G1にスプロケット51A2の歯51aを、矩形の領域R1、R2で識別することができる。領域特定部21cは、物体識別器21bの識別結果に基づいて、撮像画像G1における各領域R1、R2の四隅の座標を特定する(たとえば図6A参照)。この結果は、後述する抽出判定部34に送られる。 At the time of utilization, the HOG feature amount extracted for each pixel group is input to the captured image G1 by the local feature amount extraction unit 21a into the object classifier 21b which is a trained model. As a result, as shown in FIG. 6A, the teeth 51a of the sprocket 51A2 can be identified in the captured image G1 by the rectangular regions R1 and R2. The region identification unit 21c identifies the coordinates of the four corners of each region R1 and R2 in the captured image G1 based on the identification result of the object classifier 21b (see, for example, FIG. 6A). This result is sent to the extraction determination unit 34, which will be described later.

特徴点抽出部22は、図5Bに示すように、作業機械5のスプロケット(部品)51A2を含む上述の学習用画像g1と、学習用画像g1においてスプロケット51A2が摩耗する歯(部位)51aの形状を特定する複数の特徴点a1〜a10、b1〜b10と、を教師データとして、特徴点の抽出が機械学習されものである。特徴点抽出部22は、撮像画像G1から撮像画像G1におけるスプロケット51A2の歯(部位)51aの特徴点A1〜A10、B1〜B10を抽出する(たとえば図6A参照)。 As shown in FIG. 5B, the feature point extraction unit 22 has a shape of the above-mentioned learning image g1 including the sprocket (part) 51A2 of the work machine 5 and a tooth (part) 51a in which the sprocket 51A2 is worn in the learning image g1. The extraction of the feature points is machine-learned using a plurality of feature points a1 to a10 and b1 to b10 for specifying the above as teacher data. The feature point extraction unit 22 extracts feature points A1 to A10 and B1 to B10 of the teeth (sites) 51a of the sprocket 51A2 in the captured image G1 from the captured image G1 (see, for example, FIG. 6A).

具体的には、特徴点抽出部22は、特徴点識別器22aと特徴点特定部22bとを備えている。本実施形態では、特徴点識別器22aは、カスケード型分類器であり、学習部40の第2学習部45により生成される。本実施形態では、第2学習部45では、ランダムフォレスト(Random Forest)のアルゴリズムを有している。機械学習にあたっては、学習用画像記憶部41に記憶された多数の学習用画像g1に対して、局所特徴量抽出部21aで特徴量を抽出した画像と、学習用画像g1ごとに紐づけられ特徴点記憶部43で記憶した特徴点a1〜a10、b1〜b10の座標と、部位領域記憶部42で記憶された領域r1、r2のデータと、が入力される。 Specifically, the feature point extraction unit 22 includes a feature point classifier 22a and a feature point identification unit 22b. In the present embodiment, the feature point classifier 22a is a cascade type classifier, and is generated by the second learning unit 45 of the learning unit 40. In the present embodiment, the second learning unit 45 has a random forest (Random Forest) algorithm. In machine learning, a large number of learning images g1 stored in the learning image storage unit 41 are associated with an image whose feature amount is extracted by the local feature amount extraction unit 21a and each learning image g1. The coordinates of the feature points a1 to a10 and b1 to b10 stored in the point storage unit 43 and the data of the areas r1 and r2 stored in the site area storage unit 42 are input.

具体的には、学習フェーズの教示データとして、スプロケット51A2の歯51aの形状を特定すべく、歯山から歯山までの形状の特徴となる、特徴点a1〜a7、特徴点b1〜b7と、スプロケット51A2の円周51b上の歯底近傍の特徴点a8〜a10、特徴点b8〜b10とが、学習用画像g1ごとに記憶される。 Specifically, as teaching data in the learning phase, in order to specify the shape of the tooth 51a of the sprocket 51A2, the feature points a1 to a7 and the feature points b1 to b7, which are the features of the shape from the tooth ridge to the tooth ridge, Feature points a8 to a10 and feature points b8 to b10 near the tooth base on the circumference 51b of the sprocket 51A2 are stored for each learning image g1.

なお、この円周51bは、スプロケット51A2の回転中心から一定の距離で形成された円周である。特徴点a8、a10(b8、b10)は、歯51aの山の頂点に位置するa1、a7(b1、b7)から円周51bに下した垂線と円周51bとの交点である。一方、特徴点a9(b9)は、歯51aの谷点に位置するa4(b4)から、円周51bに下した垂線と円周51bとの交点である。 The circumference 51b is a circumference formed at a constant distance from the center of rotation of the sprocket 51A2. The feature points a8 and a10 (b8 and b10) are the intersections of the perpendicular line drawn from a1 and a7 (b1 and b7) located at the apex of the mountain of the tooth 51a to the circumference 51b and the circumference 51b. On the other hand, the feature point a9 (b9) is an intersection of the perpendicular line drawn from a4 (b4) located at the valley point of the tooth 51a to the circumference 51b and the circumference 51b.

このような教師データの入力により、本実施形態では、第2学習部45は、ランダムフォレストにより、特徴点A1〜A10、特徴点B1〜B10の抽出を機械学習し、特徴点識別器22aを生成する。 By inputting such teacher data, in the present embodiment, the second learning unit 45 machine-learns the extraction of the feature points A1 to A10 and the feature points B1 to B10 by the random forest, and generates the feature point classifier 22a. To do.

利活用時には、学習済みモデルである特徴点識別器22aに、局所特徴量抽出部21aで撮像画像G1にピクセル群ごとに抽出したHOG特徴量を入力する。この結果、図6Aに示すように、撮像画像G1にスプロケット51A2の歯51aの形状の特徴点A1〜A10、B1〜B10が矩形の領域R1、R2内及びその近傍に抽出される。特徴点特定部22bは、撮像画像G1において抽出された特徴点の座標を特定する。この結果は、領域・特徴点出力部35に送られる。 At the time of utilization, the HOG feature amount extracted for each pixel group is input to the captured image G1 by the local feature amount extraction unit 21a into the feature point classifier 22a which is a trained model. As a result, as shown in FIG. 6A, the feature points A1 to A10 and B1 to B10 of the shape of the teeth 51a of the sprocket 51A2 are extracted in the rectangular regions R1 and R2 and in the vicinity thereof in the captured image G1. The feature point specifying unit 22b specifies the coordinates of the feature points extracted in the captured image G1. This result is sent to the area / feature point output unit 35.

本実施形態では、機械学習アルゴリズムとして、第1学習部44に、SVMが用いられ、第2学習部45に、ランダムフォレストが用いられた。しかしながら、機械学習アルゴリズムとして、決定木(Decision Tree)、ブーティング(Booting)、またはリアルアダブースト(Real AdaBoost)、ニューラルネットワークなどの一般的に知られたアルゴリズムが用いられてもよい。さらに、本実施形態では、機械学習にHOG特徴量を例示したが、LBP(Local Binary Pattern)特徴量、ハールライク(Haar−like)特徴量などの他の特徴量を用いたり、複数の特徴量を組み合わせて用いたりしてもよい。 In this embodiment, SVM is used for the first learning unit 44 and a random forest is used for the second learning unit 45 as the machine learning algorithm. However, as the machine learning algorithm, commonly known algorithms such as Decision Tree, Booting, or Real AdaBoost, and neural networks may be used. Further, in the present embodiment, the HOG feature amount is illustrated for machine learning, but other feature amounts such as LBP (Local Binary Pattern) feature amount and Har-like feature amount may be used, or a plurality of feature amounts may be used. It may be used in combination.

4.通信端末3の演算装置3Aについて
本実施形態では、通信端末3の演算装置3Aは、ソフトウエアとして、画像取得部33と、抽出判定部34と、領域・特徴点出力部35と、摩耗量算出部37Aと、交換時期算出部37Bと、基準ゲージ設定部37Cとを備えている(図3参照)。これらは、摩耗量測定用の1つのアプリケーションとして通信端末3の演算装置3Aの記憶部3bにインストールされ、演算部3aで実行される。
4. About the arithmetic unit 3A of the communication terminal 3 In the present embodiment, the arithmetic unit 3A of the communication terminal 3 includes an image acquisition unit 33, an extraction determination unit 34, an area / feature point output unit 35, and a wear amount calculation as software. A unit 37A, a replacement time calculation unit 37B, and a reference gauge setting unit 37C are provided (see FIG. 3). These are installed in the storage unit 3b of the arithmetic unit 3A of the communication terminal 3 as one application for measuring the amount of wear, and are executed by the arithmetic unit 3a.

画像取得部33は、撮像装置3Eから撮像画像G1を取得するものである。本実施形態では、画像取得部33は、操作者が、入力装置3Cに配置された入力ボタンを押したタイミングで、撮像装置3Eで、撮像画像G1が取得される。具体的には、表示装置3Bに、撮像装置3Eで撮像したリアルタイムの映像(動画像)が表示されており、操作者は、その映像を確認しながら、入力ボタン(図示せず)を押すことにより、撮像装置3Eで対象物を撮像し、画像取得部33は静止画像である画像を取得する。 The image acquisition unit 33 acquires the captured image G1 from the image pickup device 3E. In the present embodiment, the image acquisition unit 33 acquires the captured image G1 by the image pickup device 3E at the timing when the operator presses the input button arranged on the input device 3C. Specifically, a real-time image (moving image) captured by the image pickup device 3E is displayed on the display device 3B, and the operator presses an input button (not shown) while checking the image. The image pickup device 3E captures an object, and the image acquisition unit 33 acquires an image that is a still image.

抽出判定部34は、部位検出部21の検出結果に基づいて、特徴点抽出部22による特徴点の抽出の実行を判定するものである。具体的には、抽出判定部34は、部位検出部21が、スプロケット51A2の歯を検出できたときには、特徴点抽出部22に撮像画像G1に対する特徴点の抽出の実行を許可する。 The extraction determination unit 34 determines the execution of extraction of feature points by the feature point extraction unit 22 based on the detection result of the site detection unit 21. Specifically, the extraction determination unit 34 permits the feature point extraction unit 22 to extract the feature points from the captured image G1 when the site detection unit 21 can detect the teeth of the sprocket 51A2.

一方、部位検出部21が、スプロケット51A2の歯を特定できないときには、撮像画像G1から、摩耗量が評価可能な歯51aの形状が検出できていないことになる。この場合には、抽出判定部34が、特徴点抽出部22に撮像画像G1に対する特徴点の抽出の実行を許可せず、表示装置3Bに、撮像装置3Eで撮像した映像を表示させる。これにより、操作者に、再度、撮像装置3Eを用いたスプロケット51A2の歯51aの撮像を促す。 On the other hand, when the site detection unit 21 cannot identify the tooth of the sprocket 51A2, the shape of the tooth 51a whose wear amount can be evaluated cannot be detected from the captured image G1. In this case, the extraction determination unit 34 does not allow the feature point extraction unit 22 to execute the extraction of the feature points with respect to the captured image G1, and causes the display device 3B to display the image captured by the image pickup device 3E. This prompts the operator to image the teeth 51a of the sprocket 51A2 again using the image pickup device 3E.

なお、本実施形態では、特徴点抽出部22により、隣り合う2つのスプロケットの歯谷の領域R1、R2の特徴点A1〜A10、B1〜B10を抽出するが、たとえば、1つの領域R1のみしか、部位検出部21を検出できていないときは、スプロケット51A2の内周51b等から領域R2の位置を推定してもよい。この場合には、推定した領域R2の画像を用いて、特徴点抽出部22で特徴点B1〜B10が抽出される。 In the present embodiment, the feature point extraction unit 22 extracts the feature points A1 to A10 and B1 to B10 of the tooth valley regions R1 and R2 of two adjacent sprockets, but for example, only one region R1 is extracted. If the site detection unit 21 cannot be detected, the position of the region R2 may be estimated from the inner circumference 51b or the like of the sprocket 51A2. In this case, the feature points B1 to B10 are extracted by the feature point extraction unit 22 using the image of the estimated region R2.

領域・特徴点出力部35は、部位検出部21と特徴点抽出部22との結果を、表示装置3Bに表示する。本実施形態では、領域・特徴点出力部35は、図6Aに示すように、撮像画像G1とともに、撮像画像G1上に、部位検出部21で検出した歯51aの領域R1、R2と、特徴点抽出部22で抽出した特徴点A1〜A10、B1〜B10と、を表示する。 The area / feature point output unit 35 displays the results of the site detection unit 21 and the feature point extraction unit 22 on the display device 3B. In the present embodiment, as shown in FIG. 6A, the region / feature point output unit 35 includes the captured image G1 and the regions R1 and R2 of the teeth 51a detected by the site detection unit 21 on the captured image G1 and the feature points. The feature points A1 to A10 and B1 to B10 extracted by the extraction unit 22 are displayed.

摩耗量算出部37Aは、特徴点A1、A2、A8、B6から、スプロケット51A2の歯51aの摩耗量を算出する。具体的には、本実施形態では、図6Bに示すように、特徴点A1と特徴点A8の距離が歯高さに近い長さX1になり、特徴点A2と特徴点B6の距離が歯幅X2に相当する。長さX1は、歯51aが摩耗してもほとんど変わらないので、歯幅X2の減少量で歯51aの摩耗状態を把握することができる。本実施形では、X2/X1の値を摩耗率として算出し、歯51aの摩耗率を、歯51aの摩耗量として算出することができる。 The wear amount calculation unit 37A calculates the wear amount of the teeth 51a of the sprocket 51A2 from the feature points A1, A2, A8, and B6. Specifically, in the present embodiment, as shown in FIG. 6B, the distance between the feature point A1 and the feature point A8 is the length X1 close to the tooth height, and the distance between the feature point A2 and the feature point B6 is the tooth width. Corresponds to X2. Since the length X1 is almost unchanged even if the teeth 51a are worn, the wear state of the teeth 51a can be grasped by the amount of decrease in the tooth width X2. In the present embodiment, the value of X2 / X1 can be calculated as the wear rate, and the wear rate of the tooth 51a can be calculated as the wear amount of the tooth 51a.

交換時期算出部37Bは、スプロケット(部品)51Aの歯51aの摩耗量(摩耗率)とから、スプロケット(部品)51A2の交換時期を算出する。本実施形態では、図7に示すように、予め、スプロケット51A2の摩耗量(摩耗率)と使用時間とデータを測定しておき、スプロケット51A2の使用時間とその摩耗率とのプロットした点に対して、単回帰線(これらの一次関数)を求める。この得られた一次関数に、算出した摩耗率を代入すると、評価対象となるスプロケット51A2のこれまでの使用時間を算出することができる。そして、スプロケット51A2の交換必須時間(スプロケット51A2の寿命時間)から、現時点におけるスプロケット51A2の使用時間を減算することにより、残存使用時間(推奨交換時期)、すなわち、スプロケット51A2の交換時期を算出することができる。交換時期算出部37Bの算出結果は、たとえば図8に示すような結果として、表示装置3Bに表示される。 The replacement time calculation unit 37B calculates the replacement time of the sprocket (part) 51A2 from the amount of wear (wear rate) of the teeth 51a of the sprocket (part) 51A. In the present embodiment, as shown in FIG. 7, the wear amount (wear rate), the usage time, and the data of the sprocket 51A2 are measured in advance, and the point at which the usage time of the sprocket 51A2 and the wear rate are plotted is obtained. To find the simple regression lines (these linear functions). By substituting the calculated wear rate into the obtained linear function, it is possible to calculate the usage time of the sprocket 51A2 to be evaluated so far. Then, the remaining usage time (recommended replacement time), that is, the replacement time of the sprocket 51A2 is calculated by subtracting the current usage time of the sprocket 51A2 from the required replacement time of the sprocket 51A2 (life time of the sprocket 51A2). Can be done. The calculation result of the replacement time calculation unit 37B is displayed on the display device 3B as a result as shown in FIG. 8, for example.

基準ゲージ設定部37Cは、表示装置3Bで表示された撮像画像G1のスプロケット51A2の歯51aに対して、歯51aの摩耗前の表面形状に応じた基準ゲージ(仮想ゲージ)51pの画像を設定する。ここで、基準ゲージ51pは、摩耗量算出部37Aで特定した、特徴点A1と特徴点A8との線分、特徴点A2と特徴点B6の線分から、基準ゲージ51pの位置を合わせ込む。このようにして、スプロケット51A2がどの程度摩耗したかを、表示装置3Bを介して簡単に確認することができる。 The reference gauge setting unit 37C sets an image of the reference gauge (virtual gauge) 51p according to the surface shape of the teeth 51a before wear on the teeth 51a of the sprocket 51A2 of the captured image G1 displayed on the display device 3B. .. Here, the reference gauge 51p aligns the position of the reference gauge 51p from the line segment between the feature point A1 and the feature point A8 and the line segment between the feature point A2 and the feature point B6 specified by the wear amount calculation unit 37A. In this way, how much the sprocket 51A2 is worn can be easily confirmed via the display device 3B.

5.摩耗量測定方法について
以下に、上述した摩耗量測定システム1を用いた摩耗量測定方法について図9を参照しながら説明する。まず、ステップS91では、通信端末3にインストールした、上述した摩耗量測定用のアプリケーションを起動する。次にステップS92に進み、このアプリケーションの起動後、スプロケット51A2の歯51aが撮像されるように、歯51aと、撮像装置3Eの撮像範囲のとの合わせ込みを行う。次に、ステップS93により、操作者が入力装置3Cからの操作により、撮像装置3Eが作業機械5の部位であるスプロケット51A2を撮像する。
5. About the wear amount measuring method The wear amount measuring method using the above-mentioned wear amount measuring system 1 will be described below with reference to FIG. First, in step S91, the above-mentioned application for measuring the amount of wear installed in the communication terminal 3 is started. Next, the process proceeds to step S92, and after the application is started, the teeth 51a and the imaging range of the imaging device 3E are aligned so that the teeth 51a of the sprocket 51A2 are imaged. Next, in step S93, the image pickup device 3E images the sprocket 51A2, which is a part of the work machine 5, by the operation from the input device 3C by the operator.

スプロケット51A2が撮像されると、ステップS94に進み、部位検出部21が撮像画像G1から、スプロケット51A2の歯51aを含む領域の検出を行う。ステップS95では、抽出判定部34が、部位検出部21によりスプロケット51A2の歯51aの検出がされていないと判定した場合には、再度、撮像を行うため、ステップS92に進む。 When the sprocket 51A2 is imaged, the process proceeds to step S94, and the site detection unit 21 detects the region including the teeth 51a of the sprocket 51A2 from the captured image G1. In step S95, if the extraction determination unit 34 determines that the tooth 51a of the sprocket 51A2 has not been detected by the site detection unit 21, the process proceeds to step S92 in order to perform imaging again.

一方、ステップS95で、抽出判定部34が、部位検出部21によりスプロケット51A2の歯51aの検出がされたと判定した場合には、ステップS96に進み、歯51aの特徴点A1〜A10、B1〜B10を抽出する(図6A参照)。ステップS97では、摩耗量算出部37Aが、特徴点A1、A2、A8、B6から、歯51aの摩耗量(摩耗率)を算出する(図6B参照)。 On the other hand, if the extraction determination unit 34 determines in step S95 that the tooth 51a of the sprocket 51A2 has been detected by the site detection unit 21, the process proceeds to step S96, and the process proceeds to step S96 to proceed to the feature points A1 to A10 and B1 to B10 of the teeth 51a. Is extracted (see FIG. 6A). In step S97, the wear amount calculation unit 37A calculates the wear amount (wear rate) of the tooth 51a from the feature points A1, A2, A8, and B6 (see FIG. 6B).

次に、ステップS98では、交換時期算出部37Bは、スプロケット(部品)51A2の歯51aの摩耗量(摩耗率)とから、スプロケット(部品)51A2の交換時期を算出する(図7参照)。さらに、ステップS99では、基準ゲージ設定部37Cは、表示装置3Bで表示された撮像画像G1のスプロケット51A2の歯51aに対して、歯51aの摩耗前の表面形状に応じた基準ゲージ(仮想ゲージ)51pの画像を設定し、基準ゲージ51pと実際の摩耗の差分がわかる画像と、推奨交換時期の目安となるグラフを表示する(図8参照)。 Next, in step S98, the replacement time calculation unit 37B calculates the replacement time of the sprocket (part) 51A2 from the amount of wear (wear rate) of the teeth 51a of the sprocket (part) 51A2 (see FIG. 7). Further, in step S99, the reference gauge setting unit 37C is a reference gauge (virtual gauge) corresponding to the surface shape of the teeth 51a before wear with respect to the teeth 51a of the sprocket 51A2 of the captured image G1 displayed by the display device 3B. An image of 51p is set, and an image showing the difference between the reference gauge 51p and the actual wear and a graph as a guideline for the recommended replacement time are displayed (see FIG. 8).

上に示す第1実施形態では、部位検出部21を設けたが、例えば、部位検出部21を省略して、撮像画像G1に対して、特徴点抽出部22で、スプロケット51A2の歯51aの特徴点を抽出し、この特徴点から歯51aの摩耗量を測定してもよい。この場合には、図10に示すように、第2学習部45は、学習用画像記憶部41の学習用画像g1と特徴点記憶部43の学習用の特徴点a1〜a10、b1〜b10を教師データとして、特徴点識別器22aを生成する。上述した局所特徴量抽出部21aでは、画像取得部33から撮像画像G1が入力され、撮像画像G1のHOG特徴量が算出される。特徴点記憶部43では、撮像画像G1のHOG特徴量から、歯51aの特徴点A1〜A10、B1〜B10を抽出し、特徴点特定部22bがこれらの座標を特定する。したがって、このような場合には、図3に示す部位検出部21の他に、図3に示す抽出判定部34も省略することができ、領域・特徴点出力部35は、領域R1、R2を出力しない。さらに、図3に示す部位領域記憶部42および第1学習部44も省略することができる。 In the first embodiment shown above, the site detection unit 21 is provided. For example, the site detection unit 21 is omitted, and the feature point extraction unit 22 with respect to the captured image G1 features the teeth 51a of the sprocket 51A2. A point may be extracted and the amount of wear of the tooth 51a may be measured from this feature point. In this case, as shown in FIG. 10, the second learning unit 45 uses the learning image g1 of the learning image storage unit 41 and the learning feature points a1 to a10 and b1 to b10 of the feature point storage unit 43. The feature point classifier 22a is generated as the teacher data. In the local feature amount extraction unit 21a described above, the captured image G1 is input from the image acquisition unit 33, and the HOG feature amount of the captured image G1 is calculated. The feature point storage unit 43 extracts the feature points A1 to A10 and B1 to B10 of the teeth 51a from the HOG feature amount of the captured image G1, and the feature point identification unit 22b specifies these coordinates. Therefore, in such a case, in addition to the site detection unit 21 shown in FIG. 3, the extraction determination unit 34 shown in FIG. 3 can be omitted, and the region / feature point output unit 35 can use the regions R1 and R2. Do not output. Further, the site area storage unit 42 and the first learning unit 44 shown in FIG. 3 can also be omitted.

以上、本実施形態では、特徴点抽出部22は、作業機械5の特定の種類の部品として、スプロケット51A2を含む学習用画像g1と、学習用画像g1においてスプロケット51A2が摩耗する部位である歯51aの形状を特定する複数の特徴点a1〜a10、b1〜b10と、を教師データとして、特徴点の抽出が機械学習されたものである。したがって、たとえば、撮像画像G1が、摩耗量を算出することができる撮像角度で、その部品の部位の形状を撮像している場合には、教師データによる学習に起因して、特徴点が抽出されるが、そのような撮像角度で撮像されていない場合には、特徴点が抽出されない。このような結果、摩耗量が精度良く算出できる撮像画像に対してのみ特徴点が抽出されるので、作業機械5のスプロケット51A2を含む画像G1から部品の部位の摩耗量をより正確に測定することができる。さらに、単なる画像処理のエッジ検出を利用したものに比べて、より正確に摩耗の状態を特徴点で捉えることができる。 As described above, in the present embodiment, the feature point extraction unit 22 includes the learning image g1 including the sprocket 51A2 as a specific type of part of the work machine 5, and the tooth 51a which is a portion where the sprocket 51A2 is worn in the learning image g1. The extraction of the feature points is machine-learned using a plurality of feature points a1 to a10 and b1 to b10 that specify the shape of the feature points as teacher data. Therefore, for example, when the captured image G1 captures the shape of the part of the component at an imaging angle at which the amount of wear can be calculated, the feature points are extracted due to the learning by the teacher data. However, if the image is not taken at such an imaging angle, the feature points are not extracted. As a result, since the feature points are extracted only for the captured image in which the wear amount can be calculated accurately, the wear amount of the part part should be measured more accurately from the image G1 including the sprocket 51A2 of the work machine 5. Can be done. Furthermore, the state of wear can be grasped more accurately by the feature points as compared with the case where the edge detection of simple image processing is used.

さらに、図8に示すように、表示装置3Bにおいて、撮像装置3Eによって撮像された画像に仮想ゲージを合わせ込んだイメージ図と、摩耗量と推奨交換時期の相関を示すグラフのイメージ図を表示する。この表示を目安に現場の安全点検員が「そろそろ交換してはいかがですか」といった提案を顧客に示すことができる。 Further, as shown in FIG. 8, the display device 3B displays an image diagram in which a virtual gauge is fitted to the image captured by the image pickup device 3E and an image diagram of a graph showing the correlation between the amount of wear and the recommended replacement time. Using this display as a guide, a safety inspector at the site can show the customer a suggestion such as "Why don't you replace it soon?"

〔第2実施形態〕
図11は、第2実施形態に係る摩耗量測定システム1である。図11に示すように、本実施形態に係る摩耗量測定システム1が、第1実施形態のもの相違する点は、ガイド設定部32と、特徴点修正部36とを備えた点と、第2学習部45により再学習を実行する点である。したがって、第1実施形態と同じ構成は、その詳細な説明を省略する。なお、第2実施形態では、ガイド設定部32と、特徴点修正部36と、再学習機能とを、備えているが、第2実施形態の摩耗量測定システム1では、これらのうち少なくともとも1つを備えていてもよい。
[Second Embodiment]
FIG. 11 is a wear amount measuring system 1 according to the second embodiment. As shown in FIG. 11, the wear amount measuring system 1 according to the present embodiment differs from that of the first embodiment in that it includes a guide setting unit 32 and a feature point correction unit 36, and a second. The point is that the learning unit 45 executes re-learning. Therefore, the same configuration as that of the first embodiment omits a detailed description thereof. In the second embodiment, the guide setting unit 32, the feature point correction unit 36, and the re-learning function are provided, but in the wear amount measurement system 1 of the second embodiment, at least one of these is provided. May be provided.

本実施形態では、演算装置2Aは、表示装置3Bで表示された撮像装置3Eの映像(動画像)ga1に、撮影する部品の形状に応じた撮影用ガイド(基準線)T1を選択して、設定するためのガイド設定部32をさらに備えている。具体的には、図12に示すように、撮影用ガイドT1は、スプロケット51A2の特徴点を抽出する位置を特定するために表示されるものであり、本実施形態ではスプロケット51A2の歯51a(具体的には歯先)と、円周51bに沿った位置に設定されている。 In the present embodiment, the arithmetic unit 2A selects a photographing guide (reference line) T1 according to the shape of the component to be photographed for the image (moving image) ga1 of the imaging device 3E displayed on the display device 3B. A guide setting unit 32 for setting is further provided. Specifically, as shown in FIG. 12, the photographing guide T1 is displayed to specify the position where the feature points of the sprocket 51A2 are extracted, and in the present embodiment, the teeth 51a of the sprocket 51A2 (specifically). The tooth tip) and the position along the circumference 51b are set.

このように、撮影用ガイドT1を設けることにより、操作者は、撮影用ガイドT1に沿ってスプロケット51A2の歯51aを撮像すればよいので、特徴点抽出部22により特徴点の抽出をより正確に行うことができる。なお、本実施形態では、通信端末3の地面(水平面)に対する傾きが、表示装置3Bで表示される映像にそのまま反映されている。しかしながら、通信端末3にジャイロセンサを設け、通信端末3の地面に対する傾きにかかわらず、表示装置3Bに撮影用ガイドT1を一定の姿勢で映像ga1に表示させてもよい。これにより、地面に対する通信端末3の姿勢にかかわらず、撮影用ガイドT1は変化しないので、より安定してスプロケット51A2の歯51aを撮像することができる。さらに、本実施形態では、操作者により撮像を行うが、たとえば、アプリケーションの起動から所定の時間経過後に、撮像装置3Eに自動的に撮像させてもよい。 By providing the photographing guide T1 in this way, the operator only has to image the teeth 51a of the sprocket 51A2 along the photographing guide T1, so that the feature point extraction unit 22 more accurately extracts the feature points. It can be carried out. In the present embodiment, the inclination of the communication terminal 3 with respect to the ground (horizontal plane) is directly reflected in the image displayed by the display device 3B. However, the communication terminal 3 may be provided with a gyro sensor, and the display device 3B may display the photographing guide T1 in a fixed posture on the image ga1 regardless of the inclination of the communication terminal 3 with respect to the ground. As a result, the photographing guide T1 does not change regardless of the posture of the communication terminal 3 with respect to the ground, so that the teeth 51a of the sprocket 51A2 can be imaged more stably. Further, in the present embodiment, the image is taken by the operator, but for example, the image pickup device 3E may automatically take an image after a predetermined time has elapsed from the start of the application.

本実施形態では、演算装置3Aは、特徴点抽出部22で抽出された特徴点の位置の変更に合わせて、特徴点の位置を修正する特徴点修正部36をさらに備えている。本実施形態では、表示装置3Bは、図13に示すように、撮像画像G1とともに、撮像画像G1上に、特徴点抽出部22で抽出した特徴点を表示している。図13では、摩耗量の算出に寄与する特徴点A1、A2、A8、B6を示している。入力装置3Cは、表示装置3Bに表示された特徴点A1、A2、A8、B6に対して、撮像画像G1上で特徴点A1、A2、A8、B6の位置の変更を操作者が入力することができるようになっている。具体的には、特徴点修正部36は、表示装置3Bにより表示された特徴点の位置のうち、位置を変更すべき特徴点を、操作者がタップする(選択する)ことが可能になっている。特徴点修正部36は、タップによって、入力装置3Cを介して、操作者がタップした特徴点を含む部分を拡大表示させる。特徴点修正部36は、さらに、タップした特徴点(拡大表示された特徴点)を操作者が触れながら、現在の位置から修正したい位置に特徴点を移動し、移動した特徴点から操作者が指を離すと、そこに特徴点が変更されるようになっている。 In the present embodiment, the arithmetic unit 3A further includes a feature point correction unit 36 that corrects the position of the feature point according to the change in the position of the feature point extracted by the feature point extraction unit 22. In the present embodiment, as shown in FIG. 13, the display device 3B displays the feature points extracted by the feature point extraction unit 22 on the captured image G1 together with the captured image G1. FIG. 13 shows feature points A1, A2, A8, and B6 that contribute to the calculation of the amount of wear. In the input device 3C, the operator inputs a change in the positions of the feature points A1, A2, A8, and B6 on the captured image G1 with respect to the feature points A1, A2, A8, and B6 displayed on the display device 3B. Can be done. Specifically, the feature point correction unit 36 enables the operator to tap (select) a feature point whose position should be changed among the positions of the feature points displayed by the display device 3B. There is. The feature point correction unit 36 enlarges and displays the portion including the feature point tapped by the operator via the input device 3C by tapping. The feature point correction unit 36 further moves the feature point from the current position to the position to be corrected while the operator touches the tapped feature point (enlarged display feature point), and the operator moves the feature point from the moved feature point. When you release your finger, the feature points are changed there.

ここでは、特徴点A1、B6の位置が適切な位置ではないので、入力装置3Cを介して、図13に示すように、操作者が特徴点A1、B6の位置を変更し、この結果、特徴点修正部36は、特徴点A1、B6の座標を修正する。このようにして、特徴点A1、B6の修正に伴い、摩耗量算出部37Aは、特徴点修正部36で修正した特徴点A1、B6に基づいてスプロケット51A2の歯51aの摩耗量をより正確に算出することができる。 Here, since the positions of the feature points A1 and B6 are not appropriate positions, the operator changes the positions of the feature points A1 and B6 via the input device 3C as shown in FIG. 13, and as a result, the features The point correction unit 36 corrects the coordinates of the feature points A1 and B6. In this way, with the correction of the feature points A1 and B6, the wear amount calculation unit 37A more accurately reduces the wear amount of the teeth 51a of the sprocket 51A2 based on the feature points A1 and B6 corrected by the feature point correction unit 36. Can be calculated.

本実施形態では、特徴点修正部36により、摩耗量の算出に寄与する特徴点A1、A2、A8、B6による修正を行ったが、たとえば、特徴点修正部36により、特徴点抽出部22で抽出したすべての特徴点の位置を修正するようにしてもよい。 In the present embodiment, the feature point correction unit 36 makes corrections by the feature points A1, A2, A8, and B6 that contribute to the calculation of the amount of wear. For example, the feature point correction unit 36 makes corrections in the feature point extraction unit 22. The positions of all the extracted feature points may be corrected.

さらに、本実施形態では、演算装置2Aは、撮像画像G1と、修正した特徴点A1、B6を含む特徴点A1〜A10、B1〜B10とをさらなる教師データとして、第2学習部45で、特徴点抽出部22を再学習させてもよい。これにより、特徴点抽出部22による特徴点の抽出の精度をさらに高めることができる。 Further, in the present embodiment, the arithmetic unit 2A uses the captured image G1 and the feature points A1 to A10 and B1 to B10 including the modified feature points A1 and B6 as further teacher data in the second learning unit 45. The point extraction unit 22 may be relearned. As a result, the accuracy of extracting the feature points by the feature point extraction unit 22 can be further improved.

図14に示すように、第2実施形態に係る摩耗量測定システム1では、ステップS92’が第1実施形態のものと相違し、さらに、ステップS96とステップS97の間に、ステップS141〜S143が追加された点が、第1実施形態のものと相違する。具体的には、ステップS92’では、操作者は、撮影用ガイドT2をスプロケット51A2の部位(歯51aおよび円周51b)に合わせた状態で、ステップS93において、スプロケット51A2の歯51aを撮像する。これにより、撮像画像G1の特定の位置に、摩耗量の測定対象となるスプロケット51A2の歯51aが配置されるため、部位検出部21による歯51aの領域の検出と、特徴点抽出部22による歯51aを含む特徴点の抽出をより的確に行うことができる。 As shown in FIG. 14, in the wear amount measuring system 1 according to the second embodiment, step S92'is different from that of the first embodiment, and further, steps S141 to S143 are performed between steps S96 and S97. The added point is different from that of the first embodiment. Specifically, in step S92', the operator images the teeth 51a of the sprocket 51A2 in step S93 with the photographing guide T2 aligned with the portions of the sprocket 51A2 (teeth 51a and circumference 51b). As a result, the teeth 51a of the sprocket 51A2 to be measured for the amount of wear are arranged at a specific position of the captured image G1. Therefore, the site detection unit 21 detects the region of the teeth 51a and the feature point extraction unit 22 detects the teeth. The feature points including 51a can be extracted more accurately.

さらに、ステップS141により、特徴点の位置が正しいかを判断し、正しい場合には、ステップS97に進み、これまで通り、摩耗量算出部37Aが、特徴点A1、A2、A8、B6から、歯51aの摩耗量(摩耗率)を算出する(図6B参照)。一方、特徴点の位置が正しくない場合には、操作者により、特徴点の位置を修正し、ステップS97に進む(図13参照)。具体的には、操作者が特徴点の位置(の候補)のうち、位置を変更したい特徴点をタップし、タップした特徴点の近辺が、表示装置3Bに拡大表示される。操作者が拡大表示された現在の位置から修正したい位置に特徴点を移動し、操作者が特徴点から指を離すと、そこに特徴点が変更される。特徴点修正部36で修正された特徴点に基づいて、摩耗量算出部37Aが、歯51aの摩耗量(摩耗率)を算出する。これに合わせて、ステップS143では、第2学習部45で特徴点抽出部22の再学習を行う。このような一連の作業により、操作者による特徴点の位置に修正に伴い、より正確に摩耗量を算出することができ、スプロケット51A2の交換時期を正確に求めることができる。 Further, in step S141, it is determined whether the position of the feature point is correct, and if it is correct, the process proceeds to step S97, and the wear amount calculation unit 37A continues from the feature points A1, A2, A8, and B6 to the teeth. The amount of wear (wear rate) of 51a is calculated (see FIG. 6B). On the other hand, if the position of the feature point is incorrect, the operator corrects the position of the feature point and proceeds to step S97 (see FIG. 13). Specifically, the operator taps the feature point whose position is to be changed among (candidates for) the feature point, and the vicinity of the tapped feature point is enlarged and displayed on the display device 3B. When the operator moves the feature point from the enlarged current position to the position to be corrected and the operator releases the finger from the feature point, the feature point is changed there. The wear amount calculation unit 37A calculates the wear amount (wear rate) of the tooth 51a based on the feature points corrected by the feature point correction unit 36. In line with this, in step S143, the second learning unit 45 relearns the feature point extraction unit 22. Through such a series of operations, the amount of wear can be calculated more accurately as the position of the feature point is corrected by the operator, and the replacement time of the sprocket 51A2 can be accurately determined.

ここで、上に示す第2実施形態では、操作者の入力操作(入力ボタンを押すこと)により、撮像画像G1を取得した。しかしながら、図15に示す変形例に係る摩耗量測定システム1により、撮像画像G1を取得してもよい。この変形例では、撮像許可部33Aをさらに備えた点が、上に示す第2実施形態と主に相違する。 Here, in the second embodiment shown above, the captured image G1 is acquired by the input operation (pressing the input button) of the operator. However, the captured image G1 may be acquired by the wear amount measuring system 1 according to the modified example shown in FIG. This modification is mainly different from the second embodiment shown above in that the image pickup permission unit 33A is further provided.

具体的には、図15に示すように、摩耗量測定システム1は、撮像画像G1を取得する前に、表示装置3Bが、撮像装置3Eからの映像(動画像)を表示するように構成されており、その映像(動画像)は、部位検出部21にも入力される。部位検出部21では、その映像から画像を取得して、スプロケット51A2の歯51aの領域R1、R2を検出するように構成されている。 Specifically, as shown in FIG. 15, in the wear amount measuring system 1, the display device 3B is configured to display an image (moving image) from the image pickup device 3E before acquiring the captured image G1. The video (moving image) is also input to the site detection unit 21. The site detection unit 21 is configured to acquire an image from the image and detect the regions R1 and R2 of the teeth 51a of the sprocket 51A2.

演算装置3Aには、映像からの画像において、部位検出部21がスプロケット51A2の歯51aの領域R1、R2を検出したタイミングで、撮像装置3Eにより撮像を許可する撮像許可部33Aを備えている。 The arithmetic unit 3A includes an image pickup permission unit 33A that allows the image pickup device 3E to take an image at the timing when the site detection unit 21 detects the regions R1 and R2 of the teeth 51a of the sprocket 51A2 in the image from the video.

画像取得部33は、部位検出部21がスプロケット51A2の歯51aの領域R1、R2を検出したタイミングで、すなわち、撮像許可部33Aが撮像の許可をしたタイミングで、撮像装置3Eに撮像画像G1の取得をさせる指令信号を出力する。これにより、撮像装置3Eにより、撮像画像G1が操作者の操作に拘わらず、自動的に取得される。取得された撮像画像G1は、部位検出部21がスプロケット51A2の歯51aの領域R1、R2を検出した画像であるため、特徴点抽出部22により、正確な位置の特徴点を抽出することができる。 The image acquisition unit 33 causes the image pickup device 3E to capture the image G1 at the timing when the site detection unit 21 detects the regions R1 and R2 of the teeth 51a of the sprocket 51A2, that is, at the timing when the image pickup permission unit 33A permits the image pickup. Outputs a command signal for acquisition. As a result, the image pickup device 3E automatically acquires the captured image G1 regardless of the operation of the operator. Since the acquired image G1 is an image in which the site detection unit 21 detects the regions R1 and R2 of the teeth 51a of the sprocket 51A2, the feature point extraction unit 22 can extract the feature points at accurate positions. ..

〔第3実施形態〕
図16は、第3実施形態に係る摩耗量測定システム1である。図16に示すように、本実施形態に係る摩耗量測定システム1が、第2実施形態のもの相違する点は、複数種の部品に対して、摩耗量の測定を行う点であり、部品設定部31A、識別装置選択部31Bと、複数種の部品に応じた5つの識別装置20A〜20Eが設けられている。したがって、第2実施形態と同じ構成は、その詳細な説明を省略する。
[Third Embodiment]
FIG. 16 is a wear amount measuring system 1 according to the third embodiment. As shown in FIG. 16, the difference between the wear amount measuring system 1 according to the present embodiment and that of the second embodiment is that the wear amount is measured for a plurality of types of parts, and the parts are set. A unit 31A, an identification device selection unit 31B, and five identification devices 20A to 20E corresponding to a plurality of types of parts are provided. Therefore, the same configuration as that of the second embodiment omits a detailed description thereof.

本実施形態では、サーバ2の演算装置2Aは、作業機械5の複数種(5種類)の部品に応じて、識別装置20A〜20Eを備えている。なお、第1実施形態の変形例の如く、部位検出部21を省略する場合には、演算装置2Aは、複数(5つ)の特徴点抽出部22A〜22Eを備えている。 In the present embodiment, the arithmetic unit 2A of the server 2 includes identification devices 20A to 20E according to a plurality of types (five types) of parts of the work machine 5. When the site detection unit 21 is omitted as in the modified example of the first embodiment, the arithmetic unit 2A includes a plurality (five) feature point extraction units 22A to 22E.

本実施形態では、識別装置20Aの部位検出部21Aでは、部品としてスプロケット51A2の歯(部位)51aの領域の検出を行い、特徴点抽出部22Aは、スプロケット51A2の特徴点の抽出を行う(図6A参照)。これは、第1および第2実施形態で説明したものと同じである。 In the present embodiment, the site detection unit 21A of the identification device 20A detects the region of the tooth (site) 51a of the sprocket 51A2 as a component, and the feature point extraction unit 22A extracts the feature points of the sprocket 51A2 (FIG. See 6A). This is the same as that described in the first and second embodiments.

識別装置20Bの部位検出部21Bでは、部品としてツース53Dの先端(部位)53cの領域の検出を行い、特徴点抽出部22Bは、ツース53Dの特徴点の抽出を行う(図17C参照)。識別装置20Cの部位検出部21Cでは、部品としてローラ51Cの支持部(部位)51gの領域の検出を行い、特徴点抽出部22Cは、ローラ51Cの特徴点の抽出を行う(図18C参照)。 The site detection unit 21B of the identification device 20B detects the region of the tip (site) 53c of the tooth 53D as a component, and the feature point extraction unit 22B extracts the feature points of the tooth 53D (see FIG. 17C). The site detection unit 21C of the identification device 20C detects the region of the support portion (site) 51 g of the roller 51C as a component, and the feature point extraction unit 22C extracts the feature points of the roller 51C (see FIG. 18C).

識別装置20Dの部位検出部21Dでは、部品としてシュープレート(部品)51Dの凸部(部位)51hの領域の検出を行い、特徴点抽出部22Dは、シュープレート51Dの特徴点の抽出を行う(図19C参照)。識別装置20Eの部位検出部21Dでは、部品としてリンク(部品)51Bの凸部(部位)51hの領域の検出を行い、特徴点抽出部22Eは、リンク51Bの特徴点の抽出を行う(図20C参照)。 The site detection unit 21D of the identification device 20D detects the region of the convex portion (site) 51h of the shoe plate (part) 51D as a component, and the feature point extraction unit 22D extracts the feature points of the shoe plate 51D ( See FIG. 19C). The site detection unit 21D of the identification device 20E detects the region of the convex portion (site) 51h of the link (component) 51B as a component, and the feature point extraction unit 22E extracts the feature points of the link 51B (FIG. 20C). reference).

本実施形態では、通信端末3の演算装置3Aは、部品設定部31Aと、識別装置選択部31Bと、を備えている。部品設定部31Aは、複数種(5種)の部品から、1つの部品を設定するものであり、入力装置3Cを介した操作者が入力する入力情報により、1つの部品(具体的には部品のコード)が設定される。 In the present embodiment, the arithmetic unit 3A of the communication terminal 3 includes a component setting unit 31A and an identification device selection unit 31B. The component setting unit 31A sets one component from a plurality of types (five types) of components, and one component (specifically, a component) is set by input information input by an operator via an input device 3C. Code) is set.

識別装置選択部(抽出部選択部)31Bは、部品設定部31Aで設定された部品に応じて、複数(5つ)の識別装置20A〜20Eから、1つの識別装置を選択する。本実施形態では、操作者が、部品としてスプロケット51A2を選択した場合、部品設定部31Aでは、スプロケット51A2を部品として設定し、識別装置選択部31Bは、識別装置20Aを選択している。このように選択した識別装置20Aを用いて、第2実施形態で説明した構成により、一連のステップを経てスプロケット51A2の摩耗量を測定する。なお、第1実施形態の変形例を適用した場合は、識別装置20A〜20Eは、特徴点抽出部22A〜22Eで構成されるため、識別装置選択部31Bは、特徴点抽出部22A〜22Eと選択する。 The identification device selection unit (extraction unit selection unit) 31B selects one identification device from a plurality (five) identification devices 20A to 20E according to the parts set by the component setting unit 31A. In the present embodiment, when the operator selects the sprocket 51A2 as a component, the component setting unit 31A sets the sprocket 51A2 as a component, and the identification device selection unit 31B selects the identification device 20A. Using the identification device 20A selected in this way, the amount of wear of the sprocket 51A2 is measured through a series of steps according to the configuration described in the second embodiment. When the modified example of the first embodiment is applied, the identification devices 20A to 20E are composed of the feature point extraction units 22A to 22E, so that the identification device selection unit 31B is the feature point extraction units 22A to 22E. select.

ここで、ガイド設定部32は、選択された部品に応じた撮影用ガイドT1〜T5の1つを選択して、これを設定する。具体的には、選択された部品がスプロケット51A2である場合には、第2実施形態で説明した撮影用ガイドT1を設定する。 Here, the guide setting unit 32 selects and sets one of the shooting guides T1 to T5 according to the selected component. Specifically, when the selected component is the sprocket 51A2, the photographing guide T1 described in the second embodiment is set.

選択された部品がツース53Dである場合には、ガイド設定部32は、図17Aに示すように中央のツース53Dの両側の輪郭線とこれに垂直な線とからなる撮影用ガイドT2を映像ga2に設定する。選択された部品がローラ51Cである場合には、ガイド設定部32は、図18Aに示すようにローラ51Cの回転軸線と、支持部に沿った上下に輪郭線に相当する撮影用ガイドT3を映像ga3に設定する。 When the selected component is the tooth 53D, the guide setting unit 32 displays the image ga2 of the photographing guide T2 including the contour lines on both sides of the central tooth 53D and the lines perpendicular to the contour lines as shown in FIG. 17A. Set to. When the selected component is the roller 51C, the guide setting unit 32 displays an image of the rotation axis of the roller 51C and the photographing guide T3 corresponding to the contour line up and down along the support portion as shown in FIG. 18A. Set to ga3.

さらに、選択された部品がシュープレート51Dである場合には、ガイド設定部32は、図19Aに示すようにシュープレート51Dのうちリンク51Bに隣接する表面に沿った線と、この線に直交するシュープレート51Dの凸部51hの中央線とを撮影用ガイドT4として、映像ga4に設定する。さらに、選択された部品が、リンク51Bである場合には、ガイド設定部32は、図20Aに示すように、リンク51B同士の連接された連接孔に沿った円と、とリンク51Bの部材の輪郭線とを撮影用ガイドT5として映像ga5に設定する。 Further, when the selected component is the shoe plate 51D, the guide setting unit 32 is orthogonal to a line along the surface of the shoe plate 51D adjacent to the link 51B as shown in FIG. 19A. The center line of the convex portion 51h of the shoe plate 51D is set as the photographing guide T4 in the image ga4. Further, when the selected component is the link 51B, as shown in FIG. 20A, the guide setting unit 32 includes a circle along the connecting hole in which the links 51B are connected to each other, and a member of the link 51B. The contour line is set in the image ga5 as a shooting guide T5.

ここで、以下に、学習済みモデルの生成について説明する。ツース53Dの場合には、図17Bに示すように、上述した方法と同様の方法で、学習用画像g2と、各ツース53Dの領域r31〜r35とを教師データとして用いて、図17cに示すように撮像画像G2における領域R31〜R35の検出が学習された部位検出部21Bを、第1学習部44で生成する。 Here, the generation of the trained model will be described below. In the case of the tooth 53D, as shown in FIG. 17B, the learning image g2 and the regions r31 to r35 of each tooth 53D are used as teacher data in the same manner as described above, as shown in FIG. 17c. The site detection unit 21B in which the detection of the regions R31 to R35 in the captured image G2 has been learned is generated by the first learning unit 44.

さらに、上述した方法と同様の方法で、学習用画像g2と、各ツース53Dの特徴点c1〜c5とを教師データとして用いて、撮像画像G2における特徴点C1〜C5の抽出が学習された特徴点抽出部22Bを、第2学習部45で生成する。 Further, the feature in which the extraction of the feature points C1 to C5 in the captured image G2 is learned by using the learning image g2 and the feature points c1 to c5 of each tooth 53D as teacher data by the same method as the above-described method. The point extraction unit 22B is generated by the second learning unit 45.

学習させる特徴点は、ツース53Dとバケット53Cとの交点を特徴点c1、c5とし、ツース53Dの取付け位置(アダプタとの境界点)を特徴点c2、c4、ツース53Dの先端を特徴点c3とする。 The feature points to be learned are the intersections of the tooth 53D and the bucket 53C as the feature points c1 and c5, the mounting position of the tooth 53D (the boundary point with the adapter) as the feature points c2 and c4, and the tip of the tooth 53D as the feature point c3. To do.

学習済みモデルである部位検出部21Bと特徴点抽出部22Bにより、図17Cに示すように、撮像画像G2に対して、各ツース53Dの領域R31〜R35を検出し、特徴点C1〜C5を抽出することができる。ここで、摩耗量算出部37Aは、特徴点C2と特徴点C4の線分の長さをX3とし、特徴点C3からこの線分に直交する線との交点までの長さをX4とし、X4/X3を算出することで、ツース53Dの摩耗量(摩耗率)を算出する。X4が摩耗により減少し、X3は殆ど変化しないので、X4/X3を算出することで、ツース53Dの摩耗の状態を把握することができる。 As shown in FIG. 17C, the region detection unit 21B and the feature point extraction unit 22B, which are trained models, detect the regions R31 to R35 of each tooth 53D for the captured image G2 and extract the feature points C1 to C5. can do. Here, the wear amount calculation unit 37A sets the length of the line segment of the feature point C2 and the feature point C4 to X3, and sets the length from the feature point C3 to the intersection of the line orthogonal to this line segment to X4, and sets X4. By calculating / X3, the amount of wear (wear rate) of the tooth 53D is calculated. Since X4 decreases due to wear and X3 hardly changes, the wear state of the tooth 53D can be grasped by calculating X4 / X3.

ローラ51Cの場合には、図18Bに示すように、上述した方法と同様の方法で、学習用画像g3と、ローラ51Cの領域r4とを教師データとして用いて、図18cに示すように撮像画像G3における領域R4の検出が学習された部位検出部21Cを、第1学習部44で生成する。 In the case of the roller 51C, as shown in FIG. 18B, the image g3 for learning and the region r4 of the roller 51C are used as teacher data in the same manner as described above, and the captured image is as shown in FIG. 18c. The first learning unit 44 generates the site detection unit 21C in which the detection of the region R4 in G3 has been learned.

さらに、上述した方法と同様の方法で、学習用画像g3と、各ローラ51Cの特徴点d1〜d8とを教師データとして用いて、撮像画像G3における特徴点D1〜D8の抽出が学習された特徴点抽出部22Cを、第2学習部45で生成する。 Further, the feature in which the extraction of the feature points D1 to D8 in the captured image G3 is learned by using the learning image g3 and the feature points d1 to d8 of each roller 51C as teacher data in the same manner as the above-described method. The point extraction unit 22C is generated by the second learning unit 45.

学習させる特徴点は、ローラ51Cの回転軸線と支持部51gの両端の輪郭線との交点を特徴点d1、d2とし、ローラ51Cの支持部51gの輪郭線に沿った点を特徴点d3〜d8とする。ローラ51Cが新品の場合には、特徴点d3〜d8を結ぶ線は、略直線であり、摩耗が進行するに従って、図18Bに示すように、これらの線が凹んだ曲線になる。 The feature points to be learned are the intersections of the rotation axis of the roller 51C and the contour lines at both ends of the support portion 51g as feature points d1 and d2, and the points along the contour line of the support portion 51g of the roller 51C as feature points d3 to d8. And. When the roller 51C is new, the lines connecting the feature points d3 to d8 are substantially straight lines, and as the wear progresses, these lines become concave curves as shown in FIG. 18B.

学習済みモデルである部位検出部21Cと特徴点抽出部22Cにより、図18Cに示すように、撮像画像G3に対して、各ローラ51Cの支持部51gの領域R4を検出し、特徴点D1〜D8を抽出することができる。ここで、摩耗量算出部37Aは、特徴点D4と特徴点D8との回転軸線方向の距離をX5とし、特徴点D4と特徴点D8との回転軸線と直交方向の距離をX6とし、X6/X5を算出することで、ローラ51Cの摩耗量(摩耗率)を算出する。X6が摩耗により減少し、X5は殆ど変化しないので、X6/X5を算出することで、ローラ51Cの摩耗の状態を把握することができる。 As shown in FIG. 18C, the region detection unit 21C and the feature point extraction unit 22C, which are trained models, detect the region R4 of the support portion 51g of each roller 51C with respect to the captured image G3, and feature points D1 to D8. Can be extracted. Here, the wear amount calculation unit 37A sets the distance between the feature point D4 and the feature point D8 in the rotation axis direction as X5, and sets the distance between the feature point D4 and the feature point D8 in the direction orthogonal to the rotation axis as X6. By calculating X5, the amount of wear (wear rate) of the roller 51C is calculated. Since X6 decreases due to wear and X5 hardly changes, the state of wear of the roller 51C can be grasped by calculating X6 / X5.

シュープレート51Dの場合には、図19Bに示すように、上述した方法と同様の方法で、学習用画像g4と、各シュープレート51Dの領域r5とを教師データとして用いて、図19cに示すように撮像画像G4における領域R5の検出が学習された部位検出部21Dを、第1学習部44で生成する。 In the case of the shoe plate 51D, as shown in FIG. 19B, the learning image g4 and the region r5 of each shoe plate 51D are used as teacher data in the same manner as described above, as shown in FIG. 19c. The site detection unit 21D in which the detection of the region R5 in the captured image G4 has been learned is generated by the first learning unit 44.

さらに、上述した方法と同様の方法で、学習用画像g4と、各シュープレート51Dの特徴点e1〜e19とを教師データとして用いて、撮像画像G4における特徴点E1〜E19の抽出が学習された特徴点抽出部22Dを、第2学習部45で生成する。 Further, the extraction of the feature points E1 to E19 in the captured image G4 was learned by using the learning image g4 and the feature points e1 to e19 of each shoe plate 51D as teacher data in the same manner as the above-described method. The feature point extraction unit 22D is generated by the second learning unit 45.

学習させる特徴点は、シュープレート51Dがリンク51Bと隣接する背面に沿った直線上の点を特徴点e1〜e4とし、シュープレート51Dの凸部51hとこれらの間の谷部に沿った点を特徴点e5〜e19とする。 The feature points to be learned are the points on the straight line along the back surface of the shoe plate 51D adjacent to the link 51B as feature points e1 to e4, and the points along the convex portion 51h of the shoe plate 51D and the valley portion between them. The feature points are e5 to e19.

学習済みモデルである部位検出部21Dと特徴点抽出部22Dにより、図19Cに示すように、撮像画像G4に対して、シュープレート51Dの凸部51hの領域R5を検出し、特徴点E1〜E19を抽出することができる。ここで、摩耗量算出部37Aは、両側の凸部51hの頂点に位置する特徴点E6とE18との距離をX7とし、特徴点E12から、特徴点E6、E18を結ぶ線分と特徴点E2との距離をX8とし、X8/X7を算出することでシュープレート51Dの摩耗量(摩耗率)を算出する。X8が摩耗により減少し、X7は殆ど変化しないので、X8/X7を算出することで、シュープレート51Dの摩耗の状態を把握することができる。 As shown in FIG. 19C, the region detection unit 21D and the feature point extraction unit 22D, which are trained models, detect the region R5 of the convex portion 51h of the shoe plate 51D with respect to the captured image G4, and feature points E1 to E19. Can be extracted. Here, the wear amount calculation unit 37A sets the distance between the feature points E6 and E18 located at the vertices of the convex portions 51h on both sides to X7, and sets the distance from the feature points E12 to the line segment connecting the feature points E6 and E18 and the feature point E2. The wear amount (wear rate) of the shoe plate 51D is calculated by calculating X8 / X7 with the distance from and X8 as X8. Since X8 decreases due to wear and X7 hardly changes, the state of wear of the shoe plate 51D can be grasped by calculating X8 / X7.

リンク51Bの場合には、図20Bに示すように、上述した方法と同様の方法で、学習用画像g5と、各リンク51Bの領域r6とを教師データとして用いて、図20cに示すように撮像画像G5における領域R6の検出が学習された部位検出部21Eを、第1学習部44で生成する。 In the case of the link 51B, as shown in FIG. 20B, the learning image g5 and the region r6 of each link 51B are used as teacher data and imaged as shown in FIG. 20c by the same method as described above. The first learning unit 44 generates a site detection unit 21E in which the detection of the region R6 in the image G5 is learned.

さらに、上述した方法と同様の方法で、学習用画像g5と、リンク51Bの特徴点f1〜f18とを教師データとして用いて、撮像画像G5における特徴点F1〜F18の抽出が学習された特徴点抽出部22Eを、第2学習部45で生成する。 Further, in the same manner as the above-described method, the learning image g5 and the feature points f1 to f18 of the link 51B are used as teacher data, and the extraction of the feature points F1 to F18 in the captured image G5 is learned. The extraction unit 22E is generated by the second learning unit 45.

学習させる特徴点は、各リンク51Bの長手方向に沿った輪郭線上の点を特徴点f1〜f8とし、リンク51Bの連結部および孔の位置を特定する点を特徴点f9〜f18とする。 As the feature points to be learned, the points on the contour line along the longitudinal direction of each link 51B are designated as feature points f1 to f8, and the points for specifying the positions of the connecting portion and the hole of the link 51B are designated as feature points f9 to f18.

学習済みモデルである部位検出部21Eと特徴点抽出部22Eにより、図20Cに示すように、撮像画像G5に対して、リンク51Bの領域R6を検出し、特徴点F1〜F18を抽出することができる。ここで、摩耗量算出部37Aは、リンク51Bの両側の側に位置する特徴点F9とF18との距離をX9とし、これらの間に位置する特徴点F12(または特徴点F15)から、特徴点F9とF18とを結ぶ直線までの距離をX10とし、X10/X9を算出することでリンク51Bの摩耗量(摩耗率)を算出する。X10が摩耗により減少し、X9は殆ど変化しないので、X10/X9を算出することで、リンク51Bの摩耗の状態を把握することができる。なお、本実施形態では、1つのリンク51Bに対しての摩耗量を算出したが、たとえば、複数のリンク51Bの全体長さをX9とし、X10/X9の値を算出すれば、より正確なリンク51Bの摩耗を把握することができる。 As shown in FIG. 20C, the region detection unit 21E and the feature point extraction unit 22E, which are trained models, can detect the region R6 of the link 51B with respect to the captured image G5 and extract the feature points F1 to F18. it can. Here, the wear amount calculation unit 37A sets the distance between the feature points F9 and F18 located on both sides of the link 51B as X9, and from the feature points F12 (or feature points F15) located between them, the feature points The wear amount (wear rate) of the link 51B is calculated by calculating X10 / X9, where the distance to the straight line connecting F9 and F18 is X10. Since X10 decreases due to wear and X9 hardly changes, the state of wear of the link 51B can be grasped by calculating X10 / X9. In the present embodiment, the amount of wear for one link 51B is calculated. For example, if the total length of the plurality of links 51B is set to X9 and the value of X10 / X9 is calculated, a more accurate link can be calculated. The wear of 51B can be grasped.

このように、本実施形態では、作業機械5の複数の部品の部位に対して、これらの部品を選択することで、それぞれの摩耗量を測定することができ、作業機械5の摩耗し易い部品の交換時期を1つの摩耗量測定システム1を用いて、顧客に提案することができる。なお、選択した部品が、ローラ51C、シュープレート51D、ツース53Dである場合には、基準ゲージ設定部37Cにより、スプロケットの場合と同様に、これらの形状に応じた基準ゲージを設定してもよい。 As described above, in the present embodiment, by selecting these parts for the parts of the plurality of parts of the work machine 5, the amount of wear of each part can be measured, and the parts that are easily worn by the work machine 5 can be measured. It is possible to propose the replacement time to the customer by using one wear amount measuring system 1. When the selected parts are the roller 51C, the shoe plate 51D, and the tooth 53D, the reference gauge setting unit 37C may set the reference gauge according to these shapes as in the case of the sprocket. ..

以上、本発明の実施の形態を用いて詳述してきたが、具体的な構成はこの実施形態及び実施例に限定されるものではなく、本発明の要旨を逸脱しない範囲における設計変更があっても、それらは本発明に含まれるものである。 Although the details have been described above using the embodiment of the present invention, the specific configuration is not limited to this embodiment and the embodiment, and there are design changes within a range not deviating from the gist of the present invention. Also, they are included in the present invention.

第2実施形態の変形例では、撮像判定部が、部位検出部により検出された結果を判定して、撮像装置による撮像のタイミングを判定したが、このような構成を、例えば、第3実施形態の摩耗量測定システムに適用してもよいことは勿論である。さらに、このような判定を行えば、摩耗量を特定するに好適な画像が取得できるので、特徴点抽出部を用いずに、取得した画像から部品の部位の摩耗を特定してもよい。 In the modified example of the second embodiment, the imaging determination unit determines the result detected by the site detection unit to determine the timing of imaging by the imaging device. Of course, it may be applied to the wear amount measuring system of. Further, if such a determination is made, an image suitable for specifying the amount of wear can be acquired. Therefore, the wear of the part of the component may be specified from the acquired image without using the feature point extraction unit.

さらに、第2および第3実施形態では、学習部として、第2学習部のみを設けたが、第1実施形態と同様の学習部を第2および第3実施形態の演算装置2Aに設けてもよい。 Further, in the second and third embodiments, only the second learning unit is provided as the learning unit, but the same learning unit as in the first embodiment may be provided in the arithmetic unit 2A of the second and third embodiments. Good.

本実施形態では、摩耗量として摩耗度を算出することにより、交換時期を予測しているが、たとえば、図8に示すような基準ゲージと摩耗を測定する部位との隙間の大きさを、演算装置が演算し、基準ゲージと部位の画像と、隙間の大きさの演算結果を表示装置に出力し、対象部位の交換の判定を操作者等が行ってもよい。 In the present embodiment, the replacement time is predicted by calculating the degree of wear as the amount of wear. For example, the size of the gap between the reference gauge and the part where the wear is measured as shown in FIG. 8 is calculated. The device may calculate, output the image of the reference gauge and the part, and the calculation result of the size of the gap to the display device, and the operator or the like may determine the replacement of the target part.

1:摩耗量測定システム、2A:演算装置、3A:演算装置、3B:表示装置、3C:入力装置、3E:撮像装置、21:部位検出部、22:特徴点抽出部、5:作業機械、34:抽出判定部、36:特徴点修正部、37A:摩耗量算出部、37B:交換時期算出部、37C:基準ゲージ設定部、51A:スプロケット(部品)、51a:歯(部位)、51B:リンク(部品)、51C:ローラ(部品)、51h:凸部、51D:シュープレート(部品)、51g:支持部(部位)、53D:ツース、53c:先端(部位) 1: Wear measurement system, 2A: Arithmetic logic unit, 3A: Arithmetic logic unit, 3B: Display device, 3C: Input device, 3E: Imaging device, 21: Site detection unit, 22: Feature point extraction unit, 5: Work machine, 34: Extraction judgment unit, 36: Feature point correction unit, 37A: Wear amount calculation unit, 37B: Replacement time calculation unit, 37C: Reference gauge setting unit, 51A: Sprocket (parts), 51a: Teeth (part), 51B: Link (part), 51C: Roller (part), 51h: Convex part, 51D: Shoe plate (part), 51g: Support part (part), 53D: Tooth, 53c: Tip (part)

Claims (10)

作業機械の部品を含む撮像画像から前記部品の摩耗量を演算する演算装置を備えた摩耗量測定システムであって、
前記演算装置は、
前記作業機械の特定の種類の部品を含む学習用画像と、前記学習用画像において前記部品が摩耗する部位の形状を特定する複数の特徴点と、を教師データとして、前記特徴点の抽出が機械学習され、前記撮像画像から前記撮像画像における前記部位の特徴点を抽出する特徴点抽出部と、
前記特徴点から、前記部位の摩耗量を算出する摩耗量算出部と、を備える、摩耗量測定システム。
It is a wear amount measurement system equipped with an arithmetic unit that calculates the wear amount of the parts from an image captured including parts of a work machine.
The arithmetic unit
Using a learning image including a specific type of part of the work machine and a plurality of feature points for specifying the shape of a portion where the part is worn in the learning image as teacher data, the extraction of the feature point is a machine. A feature point extraction unit that is learned and extracts feature points of the portion in the captured image from the captured image,
A wear amount measuring system including a wear amount calculation unit for calculating the wear amount of the portion from the feature points.
前記摩耗量測定システムは、撮像装置と、前記撮像装置からの前記撮像画像を表示する表示装置と、を備えており、
前記演算装置は、前記学習用画像と、前記学習用画像において前記部品の摩耗する部位の領域と、を教師データして、前記領域の検出が機械学習され、前記撮像画像から前記撮像画像における前記部品の前記部位の領域を検出する部位検出部をさらに備えており、
前記表示装置は、前記撮像画像上に、前記部位検出部で検出した前記部品の領域を表示する、請求項1に記載の摩耗量測定システム。
The wear amount measuring system includes an imaging device and a display device that displays the captured image from the imaging device.
The arithmetic device uses the learning image and the region of the worn portion of the component in the learning image as teacher data, and the detection of the region is machine-learned from the captured image to the captured image. It further includes a part detection unit that detects the area of the part of the part.
The wear amount measuring system according to claim 1, wherein the display device displays a region of the component detected by the site detection unit on the captured image.
前記演算装置は、前記部位検出部の検出結果に基づいて、前記特徴点抽出部による前記特徴点の抽出の実行を判定する抽出判定部をさらに備える、請求項2に記載の摩耗量測定システム。 The wear amount measuring system according to claim 2, wherein the arithmetic unit further includes an extraction determination unit that determines execution of extraction of the feature points by the feature point extraction unit based on the detection result of the site detection unit. 前記摩耗量測定システムは、撮像装置と、前記撮像装置からの映像を表示する表示装置とを備え、
前記演算装置は、前記表示装置で表示された映像に、前記部品の形状に応じた撮影用ガイドを設定するガイド設定部と、前記撮像装置から前記撮像画像を取得する画像取得部と、をさらに備える、請求項1に記載の摩耗量測定システム。
The wear amount measuring system includes an image pickup device and a display device for displaying an image from the image pickup device.
The arithmetic unit further includes a guide setting unit that sets a shooting guide according to the shape of the component on the image displayed by the display device, and an image acquisition unit that acquires the captured image from the imaging device. The wear amount measuring system according to claim 1.
前記摩耗量測定システムにおいて、前記表示装置は、前記撮像装置からの映像を表示し、
前記演算装置は、前記表示装置で表示された映像に、前記部品の形状に応じた撮影用ガイドを設定するガイド設定部と、前記撮像装置から前記撮像画像を取得する画像取得部と、をさらに備え、
前記画像取得部は、前記映像からの画像において、前記部位検出部が前記部位の領域を検出したタイミングで、前記撮像装置に前記撮像画像を取得させる、請求項2に記載の摩耗量測定システム。
In the wear amount measuring system, the display device displays an image from the image pickup device.
The arithmetic unit further includes a guide setting unit that sets a shooting guide according to the shape of the component on the image displayed by the display device, and an image acquisition unit that acquires the captured image from the imaging device. Prepare,
The wear amount measuring system according to claim 2, wherein the image acquisition unit causes the image pickup apparatus to acquire the captured image at a timing when the site detection unit detects a region of the site in an image from the video.
前記摩耗量測定システムは、前記撮像画像とともに、前記撮像画像上に、前記特徴点抽出部で抽出した特徴点を表示する表示装置と、
前記表示装置に表示された特徴点に対して、前記撮像画像上で前記特徴点の位置の変更を入力する入力装置と、をさらに備え、
前記演算装置は、前記特徴点の位置の変更に合わせて、前記特徴点の位置を修正する特徴点修正部を備えており、
前記摩耗量算出部は、前記特徴点修正部で修正した特徴点に基づいて前記部位の摩耗量を算出する、請求項1に記載の摩耗量測定システム。
The wear amount measuring system includes a display device that displays the feature points extracted by the feature point extraction unit on the captured image together with the captured image.
An input device for inputting a change in the position of the feature point on the captured image with respect to the feature point displayed on the display device is further provided.
The arithmetic unit includes a feature point correction unit that corrects the position of the feature point in accordance with a change in the position of the feature point.
The wear amount measuring system according to claim 1, wherein the wear amount calculation unit calculates the wear amount of the portion based on the feature points corrected by the feature point correction unit.
前記演算装置は、前記撮像画像と、前記修正した特徴点を含む特徴点とをさらなる教師データとして、前記特徴点抽出部を再学習させる、請求項6に記載の摩耗量測定システム。 The wear amount measuring system according to claim 6, wherein the arithmetic unit relearns the feature point extraction unit using the captured image and the feature points including the modified feature points as further teacher data. 前記演算装置は、前記部品の前記摩耗量とから、前記部品の交換時期を算出する交換時期算出部をさらに備える、請求項1に記載の摩耗量測定システム。 The wear amount measuring system according to claim 1, wherein the arithmetic unit further includes a replacement time calculation unit that calculates a replacement time of the part from the wear amount of the part. 前記摩耗量測定システムは、前記撮像画像と前記交換時期を表示する表示装置を備えており、
前記演算装置は、前記表示装置で表示された前記撮像画像の前記部位に対して、前記部位の摩耗前の表面形状に応じた基準ゲージの画像を設定する基準ゲージ設定部をさらに備える、請求項8に記載の摩耗量測定システム。
The wear amount measuring system includes a display device that displays the captured image and the replacement time.
The arithmetic unit further includes a reference gauge setting unit that sets an image of a reference gauge according to the surface shape of the portion before wear with respect to the portion of the captured image displayed on the display device. 8. The wear amount measuring system according to 8.
前記演算装置は、作業機械の複数種の部品に応じて、複数の前記特徴点抽出部を備えており、
前記摩耗量測定システムは、前記複数種の部品から、1つの部品を設定する部品設定部と、
前記部品設定部で設定された部品に応じて、前記複数の特徴点抽出部から、1つの特徴点抽出部を選択する抽出部選択部と、をさらに備え、
前記抽出部選択部で選択された特徴点抽出部が、設定された前記部品の特徴点を抽出する、請求項1に記載の摩耗量測定システム。
The arithmetic unit includes a plurality of the feature point extraction units according to a plurality of types of parts of the work machine.
The wear amount measuring system includes a component setting unit that sets one component from the plurality of types of components, and a component setting unit.
Further, an extraction unit selection unit that selects one feature point extraction unit from the plurality of feature point extraction units according to the parts set by the component setting unit is further provided.
The wear amount measuring system according to claim 1, wherein the feature point extraction unit selected by the extraction unit selection unit extracts the set feature points of the component.
JP2019153951A 2019-08-26 2019-08-26 Wear amount measurement system Pending JP2021032736A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019153951A JP2021032736A (en) 2019-08-26 2019-08-26 Wear amount measurement system
PCT/JP2020/031866 WO2021039731A1 (en) 2019-08-26 2020-08-24 Wear amount measurement system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019153951A JP2021032736A (en) 2019-08-26 2019-08-26 Wear amount measurement system

Publications (1)

Publication Number Publication Date
JP2021032736A true JP2021032736A (en) 2021-03-01

Family

ID=74678541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019153951A Pending JP2021032736A (en) 2019-08-26 2019-08-26 Wear amount measurement system

Country Status (2)

Country Link
JP (1) JP2021032736A (en)
WO (1) WO2021039731A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9613413B2 (en) * 2012-10-17 2017-04-04 Caterpillar Inc. Methods and systems for determining part wear based on digital image of part
JP6487493B2 (en) * 2017-05-18 2019-03-20 ファナック株式会社 Image processing system
WO2019130945A1 (en) * 2017-12-27 2019-07-04 ソニー株式会社 Information processing device, information processing method, program, and moving body
JP7094702B2 (en) * 2018-01-12 2022-07-04 キヤノン株式会社 Image processing device and its method, program

Also Published As

Publication number Publication date
WO2021039731A1 (en) 2021-03-04

Similar Documents

Publication Publication Date Title
CN104217350B (en) Virtual try-on realization method and device
JP5791812B2 (en) Clothes image processing device, clothes image display method, and program
EP2831537B1 (en) Apparatus, method and computer program for three-dimensional measurement
EP2553383B1 (en) Method and apparatus for generating texture in a three-dimensional scene
US10445872B2 (en) Machine control measurements device
JP2017117341A (en) Object detection method, device and program
CN108027667A (en) Information processing equipment, information processing method and program
WO2021039731A1 (en) Wear amount measurement system
JPWO2005096129A1 (en) Method and apparatus for detecting designated position of imaging apparatus, and program for detecting designated position of imaging apparatus
WO2005096130A1 (en) Method and device for detecting directed position of image pickup device and program for detecting directed position of image pickup device
CN110873551A (en) Inspection apparatus
EP3723039A1 (en) Tip attachment discrimination device
EP3518521B1 (en) Method for realizing effect of photo being taken by others through selfie, and photographing device
JP2020010166A (en) Image processing system and control method thereof, imaging apparatus, program
JP6632298B2 (en) Information processing apparatus, information processing method and program
JP6597702B2 (en) Setup assist system
JP2007218922A (en) Image measuring device
JP2019086916A (en) Work support device, work support method, and work support program
JP2017068437A (en) Body detection apparatus, body detection method, and body detection program
WO2021084690A1 (en) Information processing system, information processing device, insole, information processing method, and recording medium
JP6853031B2 (en) Information processing equipment, information processing system, information processing method, and program
JPH04323503A (en) Image processor
JP2018106358A (en) Setup assisting system
CN111506280A (en) Graphical user interface for indicating off-screen points of interest
JP2023023802A (en) Image evaluation apparatus