JP2021032736A - Wear amount measurement system - Google Patents
Wear amount measurement system Download PDFInfo
- Publication number
- JP2021032736A JP2021032736A JP2019153951A JP2019153951A JP2021032736A JP 2021032736 A JP2021032736 A JP 2021032736A JP 2019153951 A JP2019153951 A JP 2019153951A JP 2019153951 A JP2019153951 A JP 2019153951A JP 2021032736 A JP2021032736 A JP 2021032736A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- wear amount
- feature point
- wear
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- E—FIXED CONSTRUCTIONS
- E02—HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
- E02F—DREDGING; SOIL-SHIFTING
- E02F9/00—Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
- E02F9/24—Safety devices, e.g. for preventing overload
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M13/00—Testing of machine parts
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M13/00—Testing of machine parts
- G01M13/02—Gearings; Transmission mechanisms
- G01M13/021—Gearings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
Abstract
Description
本発明は、作業機械の部品を含む画像から部品の部位の摩耗量を演算する摩耗量測定システムに関する。 The present invention relates to a wear amount measuring system that calculates the amount of wear of a part of a part from an image including a part of a work machine.
従来から、作業機械の継続的な使用により、作業機械を構成する部品が摩耗することがあり、この部品の摩耗状態を管理することは、作業機械を安定して使用するためには重要である。 Conventionally, continuous use of a work machine may cause wear of parts that make up the work machine, and it is important to manage the wear state of these parts in order to use the work machine in a stable manner. ..
このような観点から、たとえば、特許文献1には、作業機械の摩耗部品の画像を取得し、取得した画像から摩耗部品の摩耗縁部の測定を行い、測定した摩耗縁部の結果から、摩耗部品の摩耗状態を特定する摩耗判定システムが提案されている。
From this point of view, for example,
しかしながら、特許文献1に示す摩耗判定システムでは、取得した画像から、摩耗する部品の部位の摩耗状態を特定するが、その摩耗部品の撮像角度により、同じ摩耗状態でも、その摩耗状態の結果の差異が大きくなり、正確な摩耗の状態を特定することができないことがある。
However, in the wear determination system shown in
本発明は、このような点を鑑みてなされたものであり、その目的とするところは、作業機械の部品を含む画像から部品の部位の摩耗量をより正確に測定することができる摩耗量測定システムを提供する。 The present invention has been made in view of these points, and an object of the present invention is to measure the amount of wear that can more accurately measure the amount of wear of a part of a part from an image including a part of a work machine. Provide a system.
前記課題を鑑みて、本発明に係る摩耗量測定システムは、作業機械の部品を含む撮像画像から前記部品の摩耗量を演算する演算装置を備えた摩耗量測定システムであって、前記演算装置は、前記作業機械の特定の種類の部品を含む学習用画像と、前記学習用画像において前記部品が摩耗する部位の形状を特定する複数の特徴点と、を教師データとして、前記特徴点の抽出が機械学習され、前記撮像画像から前記撮像画像における前記部位の特徴点を抽出する特徴点抽出部と、前記特徴点から、前記部位の摩耗量を算出する摩耗量算出部と、を備える。 In view of the above problems, the wear amount measuring system according to the present invention is a wear amount measuring system including a calculation device for calculating the wear amount of the parts from an image captured including the parts of the work machine. , The learning image including a specific type of part of the work machine and a plurality of feature points for specifying the shape of the part where the part is worn in the learning image are used as training data to extract the feature point. It is provided with a feature point extraction unit that is machine-learned and extracts feature points of the portion in the captured image from the captured image, and a wear amount calculation unit that calculates the wear amount of the portion from the feature points.
本発明によれば、特徴点抽出部は、作業機械の特定の種類の部品を含む学習用画像と、前記学習用画像において前記部品が摩耗する部位の形状を特定する複数の特徴点と、を教師データとして、特徴点の抽出が機械学習されたものである。したがって、たとえば、撮像画像が、摩耗量を算出することができる撮像角度で、その部品の部位の形状を撮像している場合には、特徴点が抽出されるが、そのような撮像角度で撮像されていない場合には、特徴点が抽出されない。このような結果、摩耗量が精度良く算出できる撮像画像に対して特徴点が抽出されるので、作業機械の部品を含む画像から部品の部位の摩耗量をより正確に測定することができる。 According to the present invention, the feature point extraction unit includes a learning image including a specific type of component of a work machine, and a plurality of feature points that specify the shape of a portion where the component wears in the learning image. As teacher data, the extraction of feature points is machine-learned. Therefore, for example, when the captured image captures the shape of the part of the component at an imaging angle at which the amount of wear can be calculated, feature points are extracted, but the captured image is captured at such an imaging angle. If not, the feature points are not extracted. As a result, since the feature points are extracted from the captured image in which the amount of wear can be calculated accurately, the amount of wear of the part of the part can be measured more accurately from the image including the part of the work machine.
以下、図面を参照して本発明に係る摩耗量測定システムのいくつかの実施形態を説明する。 Hereinafter, some embodiments of the wear amount measuring system according to the present invention will be described with reference to the drawings.
1.作業機械5について
本実施形態では、摩耗の測定の対象である作業機械5は、特に限定はされないが、たとえば、油圧ショベルなどである。以下では、まず本実施形態の摩耗量測定システム1の測定対象である作業機械5の構成の一例を説明し、次に本実施形態の摩耗量測定システム1の詳細に説明する。
1. 1. About the
図1に示すように、作業機械5は、油圧負荷として、クローラ式の走行体51と、走行体51上に旋回可能に設けられた旋回体52と、旋回体52に取り付けられた多関節式のフロント作業機53とを備えている。旋回体52の前部左右の一方側にはキャビン54が設けられ、旋回体52の前部中央には上下方向に回動して掘削等の作業を行うフロント作業機53が設けられている。旋回体52の後部には機体の重量のバランスを保つカウンタウェイト56が設けられている。
As shown in FIG. 1, the
走行体51には前端部にアイドラ51A1が設けられ、後端部に不図示の走行モータにより駆動されるスプロケット51A2が設けられる。このアイドラ51A1とスプロケット51A2とには、リンク(リンクアッセンブリ)51Bが架け渡されており、アイドラ51A1とスプロケット51A2の間には、リンク51Bを支持するローラ51Cが設けられている。リンク51Bには、地面に設置するシュープレート51Dが取り付けられている。走行体51をこのように構成することで、作業機械5が不整地で移動可能となる。
The traveling body 51 is provided with an idler 51A1 at the front end and a sprocket 51A2 driven by a traveling motor (not shown) at the rear end. A link (link assembly) 51B is bridged between the idler 51A1 and the sprocket 51A2, and a roller 51C for supporting the
フロント作業機53は、たとえば、旋回体52の前側に設けられ、油圧駆動装置によって駆動されて掘削作業などの作業を行う機械である。フロント作業機53は、たとえば、ブーム53A、アーム53B、およびバケット53Cが連接されており、これらは油圧シリンダ53a、53b、53cにより動作する。バケット53Cの先端には、複数のツース(爪部)53Dが幅方向に間隔を空けて固定されている。
The
ここで、走行体51による作業機械5の走行の際には、スプロケット(部品)51A2の歯(部位)、ローラ(部品)51Cのリンク51Bを支持する支持部(部位)、リンク(部品)51Bの連接部分(部位)、シュープレート(部品)51Dが接地する凸部(部位)が摩耗する。さらに、複数のツース(部品)53Dは、掘削作業などの作業に伴い、その先端が摩耗する。したがって、以下の第1および2実施形態では、摩耗量測定システム1で、スプロケット51A2の歯51aの摩耗量を測定し、第3実施形態では、これらの部品の部位の摩耗量を測定する。
Here, when the
〔第1実施形態〕
2.摩耗量測定システム1の構成について
図2に示すように、第1実施形態に係る摩耗量測定システム1は、複数の通信端末3、3、…で撮像された作業機械5を構成する部品の部位の画像から、各通信端末3の演算装置3A、およびネットワークを介したサーバ2の演算装置2Aにより、その部位の摩耗量を演算する装置である。本実施形態では、摩耗量測定システム1は、サーバ2を備えるが、たとえば、上述した部位の画像からその部位の摩耗量を演算する一連のアプリケーションを演算装置3Aの記憶部3bにインストールできるであれば、各通信端末3のみで構成されていてもよい。
[First Embodiment]
2. Configuration of Wear
サーバ2は、演算装置2Aを少なくとも備えており、演算装置2AはCPU等で構成される演算部2aと、ROM、RAMなどで構成される記憶部2bとを備えている。本実施形態では、記憶部2bには、後述する学習用画像などの教師データ、部位検出部21および特徴点抽出部22を実行するためのプログラムが記憶されており、演算部2aは、これらのプログラムを実行する装置である。なお、本明細書において図3以降に示す、部位検出部21および特徴点抽出部22を、記憶部2bで記憶されたプログラムを演算部2aで実行する部分として示している。サーバ2は、たとえば事前登録された各通信端末3により、アクセス可能になっており、各通信端末3で撮像された画像、部位の摩耗量等の演算結果が受信され、これらの結果が記憶部2bに記憶されていてもよい。
The
通信端末3は、一般的な携帯端末またはタブレット端末であり、演算装置3Aと、タッチパネルディスプレイ3Dと、撮像装置3Eとを備えている。演算装置3Aは、CPU等で構成される演算部3aと、ROM、RAMなどで構成される記憶部3bとを備えている。記憶部3bには、後述する画像取得部33、抽出判定部34、摩耗量算出部37A等を実行するためのプログラムが記憶されており、演算部3aは、このプログラムを実行する装置である。なお、本明細書において図3以降に示す、画像取得部33、抽出判定部34、摩耗量算出部37A等は、記憶部3bで記憶されたプログラムを演算部3aで実行する部分として示している。
The
タッチパネルディスプレイ3Dは、表示装置3Bと入力装置3Cで構成される。表示装置3Bは、表示画面であり、撮像装置3Eで撮像された映像および画像、演算装置3Aで演算された演算結果等が表示される。入力装置3Cは、演算装置2Aに操作者が所定のデータ等を入力する装置である。入力装置3Cは、操作者が、撮像画像を取得するための指令信号を撮像装置3Eに入力する入力ボタン(アイコン)、表示装置(表示画面)3Bに表示された、後述する部品の部位の特徴点の位置を修正するマーカ(アイコン)など有している。
The
撮像装置3Eは、デジタルカメラなどのデジタル映像およびデジタル画像を撮像する装置であり、本実施形態では、摩耗測定を実行するアプリケーションの起動に合わせた所定のタイミングで、映像(動画像)を表示装置3Bに表示する。ただし、この動画像は、記憶部3bには記録されない。入力装置3Cから操作者が入力した入力信号により、画像取得部33は、表示装置3Bに表示した映像(動画像)を利用して、撮像装置3Eは、撮像画像(静止画像)を取得し、この撮像画像は、記憶部3bに記録される。
The image pickup device 3E is a device for capturing a digital image and a digital image of a digital camera or the like, and in the present embodiment, the image pickup device 3E is a device for displaying an image (moving image) at a predetermined timing according to the activation of an application for executing wear measurement. Display on 3B. However, this moving image is not recorded in the
3.サーバ2の演算装置2Aについて
本実施形態では、サーバ2の演算装置2Aは、ソフトウエアとして、部位検出部21と特徴点抽出部22とで構成される識別装置20を備えている。この識別装置20は、上述したスプロケットの画像から、スプロケット51A2の歯51aを識別するものであり、サーバ2の記憶部2bにインストールされた学習部40により生成され、演算部2aで実行される。しかしながら、識別装置20を通信端末3の演算装置3Aが備えていてもよい。なお、図3は、学習済みモデルである部位検出部21と特徴点抽出部22による利活用を説明するためのブロック図であるため、図3では、学習フェーズで用いられる学習部40を省略している。
3. 3. About the
本実施形態では、部位検出部21は、作業機械5の部品としてスプロケット51A2の画像から、その部品の部位である歯の位置を検出するものである。部位検出部21は、作業機械5の特定の種類の部品としてスプロケット51A2を含む学習用画像と、学習用画像においてスプロケット51A2の摩耗する部位である歯51aの領域(具体的には矩形状の領域)とを、教師データとし、この教師データから歯51aの領域の検出が機械学習されたものである。したがって、部位検出部21は、撮像装置3Eで撮像した撮像画像(具体的には画像取得部33で取得した画像)から撮像画像におけるスプロケット51A2の歯51aの領域Rを検出する。
In the present embodiment, the
図4に示すように、部位検出部21は、局所特徴量抽出部21aと、物体識別器21bと、領域特定部21cと、を備えている。局所特徴量抽出部21aは、撮像画像に含まれる矩形状の複数ピクセル群となる領域を所定数のピクセルずつずらして選択しながら、その画像の局所の特徴量を抽出するものである。本実施形態では、領域ごとのHOG(Histograms of Oriented Gradients)特徴量(特徴ベクトル)を抽出する。HOG特徴量は、画像の輝度の勾配をヒストグラム化したものである。
As shown in FIG. 4, the
物体識別器21bは、作業機械5のスプロケット(部品)51A2のうち、歯(部位)51aの画像G1の特徴を機械学習したものである。具体的には、物体識別器21bは、SVM(Support Vector Machine)により機械学習した識別関数であり、学習部40により学習される。
The object detector 21b is machine-learned from the features of the image G1 of the teeth (parts) 51a of the sprocket (parts) 51A2 of the
本実施形態では、学習部40は、サーバ2の演算装置2Aに備えられている。しかしながら、学習部40をたとえば他のシステムに備え、サーバ2の演算装置2Aに、他のシステムで生成した部位検出部21と特徴点抽出部22とをインストールしてもよい。図5Aに示すように、学習部40は、スプロケット(部品)51A2の歯(部位)51aが写った多数の学習用画像g1が記憶された学習用画像記憶部41と、この学習用画像g1ごとに紐付けられて歯51aの領域r1、r2…を記憶した部位領域記憶部42と、を備えている。部位領域記憶部42は、学習用画像g1において矩形状の領域r1、r2を2つ記憶しており、具体的には、領域r1、r2の4隅の座標を記憶している。
In the present embodiment, the
学習部40は、特徴点記憶部43、第1学習部44、および第2学習部45、をさらに備えている。第1学習部44は、SVMを有した学習器であり、物体識別器21bを生成する。ここで、SVMは、基本的に2クラス判別器である。学習フェーズにおいて、スプロケット(部品)51A2の歯(部位)51aが写っている領域を特定した多数の学習用画像(正例)のそれぞれから抽出したHOG特徴量と、スプロケット51A2の歯が写っていない(または、スプロケットの歯と認識し難い)領域の多数の学習用画像(負例)から、それぞれから抽出したHOG特徴量との識別境界をSVMにより機械学習する。なお、本実施形態では、学習用画像記憶部41に記憶された学習用画像g1に対して、局所特徴量抽出部21aで特徴量を抽出した画像を、第1学習部44に順次入力する。機械学習にあたっては、部位領域記憶部42で記憶された領域r1、r2の画像を正例とし、それ以外の領域の画像を負例として用いられ、このような機械学習により、物体識別器21bが生成される。
The
利活用時には、学習済みモデルである物体識別器21bに、局所特徴量抽出部21aで撮像画像G1にピクセル群ごとに抽出したHOG特徴量を入力する。この結果、図6Aに示すように、撮像画像G1にスプロケット51A2の歯51aを、矩形の領域R1、R2で識別することができる。領域特定部21cは、物体識別器21bの識別結果に基づいて、撮像画像G1における各領域R1、R2の四隅の座標を特定する(たとえば図6A参照)。この結果は、後述する抽出判定部34に送られる。
At the time of utilization, the HOG feature amount extracted for each pixel group is input to the captured image G1 by the local feature
特徴点抽出部22は、図5Bに示すように、作業機械5のスプロケット(部品)51A2を含む上述の学習用画像g1と、学習用画像g1においてスプロケット51A2が摩耗する歯(部位)51aの形状を特定する複数の特徴点a1〜a10、b1〜b10と、を教師データとして、特徴点の抽出が機械学習されものである。特徴点抽出部22は、撮像画像G1から撮像画像G1におけるスプロケット51A2の歯(部位)51aの特徴点A1〜A10、B1〜B10を抽出する(たとえば図6A参照)。
As shown in FIG. 5B, the feature
具体的には、特徴点抽出部22は、特徴点識別器22aと特徴点特定部22bとを備えている。本実施形態では、特徴点識別器22aは、カスケード型分類器であり、学習部40の第2学習部45により生成される。本実施形態では、第2学習部45では、ランダムフォレスト(Random Forest)のアルゴリズムを有している。機械学習にあたっては、学習用画像記憶部41に記憶された多数の学習用画像g1に対して、局所特徴量抽出部21aで特徴量を抽出した画像と、学習用画像g1ごとに紐づけられ特徴点記憶部43で記憶した特徴点a1〜a10、b1〜b10の座標と、部位領域記憶部42で記憶された領域r1、r2のデータと、が入力される。
Specifically, the feature
具体的には、学習フェーズの教示データとして、スプロケット51A2の歯51aの形状を特定すべく、歯山から歯山までの形状の特徴となる、特徴点a1〜a7、特徴点b1〜b7と、スプロケット51A2の円周51b上の歯底近傍の特徴点a8〜a10、特徴点b8〜b10とが、学習用画像g1ごとに記憶される。
Specifically, as teaching data in the learning phase, in order to specify the shape of the
なお、この円周51bは、スプロケット51A2の回転中心から一定の距離で形成された円周である。特徴点a8、a10(b8、b10)は、歯51aの山の頂点に位置するa1、a7(b1、b7)から円周51bに下した垂線と円周51bとの交点である。一方、特徴点a9(b9)は、歯51aの谷点に位置するa4(b4)から、円周51bに下した垂線と円周51bとの交点である。
The
このような教師データの入力により、本実施形態では、第2学習部45は、ランダムフォレストにより、特徴点A1〜A10、特徴点B1〜B10の抽出を機械学習し、特徴点識別器22aを生成する。
By inputting such teacher data, in the present embodiment, the
利活用時には、学習済みモデルである特徴点識別器22aに、局所特徴量抽出部21aで撮像画像G1にピクセル群ごとに抽出したHOG特徴量を入力する。この結果、図6Aに示すように、撮像画像G1にスプロケット51A2の歯51aの形状の特徴点A1〜A10、B1〜B10が矩形の領域R1、R2内及びその近傍に抽出される。特徴点特定部22bは、撮像画像G1において抽出された特徴点の座標を特定する。この結果は、領域・特徴点出力部35に送られる。
At the time of utilization, the HOG feature amount extracted for each pixel group is input to the captured image G1 by the local feature
本実施形態では、機械学習アルゴリズムとして、第1学習部44に、SVMが用いられ、第2学習部45に、ランダムフォレストが用いられた。しかしながら、機械学習アルゴリズムとして、決定木(Decision Tree)、ブーティング(Booting)、またはリアルアダブースト(Real AdaBoost)、ニューラルネットワークなどの一般的に知られたアルゴリズムが用いられてもよい。さらに、本実施形態では、機械学習にHOG特徴量を例示したが、LBP(Local Binary Pattern)特徴量、ハールライク(Haar−like)特徴量などの他の特徴量を用いたり、複数の特徴量を組み合わせて用いたりしてもよい。
In this embodiment, SVM is used for the
4.通信端末3の演算装置3Aについて
本実施形態では、通信端末3の演算装置3Aは、ソフトウエアとして、画像取得部33と、抽出判定部34と、領域・特徴点出力部35と、摩耗量算出部37Aと、交換時期算出部37Bと、基準ゲージ設定部37Cとを備えている(図3参照)。これらは、摩耗量測定用の1つのアプリケーションとして通信端末3の演算装置3Aの記憶部3bにインストールされ、演算部3aで実行される。
4. About the
画像取得部33は、撮像装置3Eから撮像画像G1を取得するものである。本実施形態では、画像取得部33は、操作者が、入力装置3Cに配置された入力ボタンを押したタイミングで、撮像装置3Eで、撮像画像G1が取得される。具体的には、表示装置3Bに、撮像装置3Eで撮像したリアルタイムの映像(動画像)が表示されており、操作者は、その映像を確認しながら、入力ボタン(図示せず)を押すことにより、撮像装置3Eで対象物を撮像し、画像取得部33は静止画像である画像を取得する。
The
抽出判定部34は、部位検出部21の検出結果に基づいて、特徴点抽出部22による特徴点の抽出の実行を判定するものである。具体的には、抽出判定部34は、部位検出部21が、スプロケット51A2の歯を検出できたときには、特徴点抽出部22に撮像画像G1に対する特徴点の抽出の実行を許可する。
The
一方、部位検出部21が、スプロケット51A2の歯を特定できないときには、撮像画像G1から、摩耗量が評価可能な歯51aの形状が検出できていないことになる。この場合には、抽出判定部34が、特徴点抽出部22に撮像画像G1に対する特徴点の抽出の実行を許可せず、表示装置3Bに、撮像装置3Eで撮像した映像を表示させる。これにより、操作者に、再度、撮像装置3Eを用いたスプロケット51A2の歯51aの撮像を促す。
On the other hand, when the
なお、本実施形態では、特徴点抽出部22により、隣り合う2つのスプロケットの歯谷の領域R1、R2の特徴点A1〜A10、B1〜B10を抽出するが、たとえば、1つの領域R1のみしか、部位検出部21を検出できていないときは、スプロケット51A2の内周51b等から領域R2の位置を推定してもよい。この場合には、推定した領域R2の画像を用いて、特徴点抽出部22で特徴点B1〜B10が抽出される。
In the present embodiment, the feature
領域・特徴点出力部35は、部位検出部21と特徴点抽出部22との結果を、表示装置3Bに表示する。本実施形態では、領域・特徴点出力部35は、図6Aに示すように、撮像画像G1とともに、撮像画像G1上に、部位検出部21で検出した歯51aの領域R1、R2と、特徴点抽出部22で抽出した特徴点A1〜A10、B1〜B10と、を表示する。
The area / feature
摩耗量算出部37Aは、特徴点A1、A2、A8、B6から、スプロケット51A2の歯51aの摩耗量を算出する。具体的には、本実施形態では、図6Bに示すように、特徴点A1と特徴点A8の距離が歯高さに近い長さX1になり、特徴点A2と特徴点B6の距離が歯幅X2に相当する。長さX1は、歯51aが摩耗してもほとんど変わらないので、歯幅X2の減少量で歯51aの摩耗状態を把握することができる。本実施形では、X2/X1の値を摩耗率として算出し、歯51aの摩耗率を、歯51aの摩耗量として算出することができる。
The wear
交換時期算出部37Bは、スプロケット(部品)51Aの歯51aの摩耗量(摩耗率)とから、スプロケット(部品)51A2の交換時期を算出する。本実施形態では、図7に示すように、予め、スプロケット51A2の摩耗量(摩耗率)と使用時間とデータを測定しておき、スプロケット51A2の使用時間とその摩耗率とのプロットした点に対して、単回帰線(これらの一次関数)を求める。この得られた一次関数に、算出した摩耗率を代入すると、評価対象となるスプロケット51A2のこれまでの使用時間を算出することができる。そして、スプロケット51A2の交換必須時間(スプロケット51A2の寿命時間)から、現時点におけるスプロケット51A2の使用時間を減算することにより、残存使用時間(推奨交換時期)、すなわち、スプロケット51A2の交換時期を算出することができる。交換時期算出部37Bの算出結果は、たとえば図8に示すような結果として、表示装置3Bに表示される。
The replacement
基準ゲージ設定部37Cは、表示装置3Bで表示された撮像画像G1のスプロケット51A2の歯51aに対して、歯51aの摩耗前の表面形状に応じた基準ゲージ(仮想ゲージ)51pの画像を設定する。ここで、基準ゲージ51pは、摩耗量算出部37Aで特定した、特徴点A1と特徴点A8との線分、特徴点A2と特徴点B6の線分から、基準ゲージ51pの位置を合わせ込む。このようにして、スプロケット51A2がどの程度摩耗したかを、表示装置3Bを介して簡単に確認することができる。
The reference gauge setting unit 37C sets an image of the reference gauge (virtual gauge) 51p according to the surface shape of the
5.摩耗量測定方法について
以下に、上述した摩耗量測定システム1を用いた摩耗量測定方法について図9を参照しながら説明する。まず、ステップS91では、通信端末3にインストールした、上述した摩耗量測定用のアプリケーションを起動する。次にステップS92に進み、このアプリケーションの起動後、スプロケット51A2の歯51aが撮像されるように、歯51aと、撮像装置3Eの撮像範囲のとの合わせ込みを行う。次に、ステップS93により、操作者が入力装置3Cからの操作により、撮像装置3Eが作業機械5の部位であるスプロケット51A2を撮像する。
5. About the wear amount measuring method The wear amount measuring method using the above-mentioned wear
スプロケット51A2が撮像されると、ステップS94に進み、部位検出部21が撮像画像G1から、スプロケット51A2の歯51aを含む領域の検出を行う。ステップS95では、抽出判定部34が、部位検出部21によりスプロケット51A2の歯51aの検出がされていないと判定した場合には、再度、撮像を行うため、ステップS92に進む。
When the sprocket 51A2 is imaged, the process proceeds to step S94, and the
一方、ステップS95で、抽出判定部34が、部位検出部21によりスプロケット51A2の歯51aの検出がされたと判定した場合には、ステップS96に進み、歯51aの特徴点A1〜A10、B1〜B10を抽出する(図6A参照)。ステップS97では、摩耗量算出部37Aが、特徴点A1、A2、A8、B6から、歯51aの摩耗量(摩耗率)を算出する(図6B参照)。
On the other hand, if the
次に、ステップS98では、交換時期算出部37Bは、スプロケット(部品)51A2の歯51aの摩耗量(摩耗率)とから、スプロケット(部品)51A2の交換時期を算出する(図7参照)。さらに、ステップS99では、基準ゲージ設定部37Cは、表示装置3Bで表示された撮像画像G1のスプロケット51A2の歯51aに対して、歯51aの摩耗前の表面形状に応じた基準ゲージ(仮想ゲージ)51pの画像を設定し、基準ゲージ51pと実際の摩耗の差分がわかる画像と、推奨交換時期の目安となるグラフを表示する(図8参照)。
Next, in step S98, the replacement
上に示す第1実施形態では、部位検出部21を設けたが、例えば、部位検出部21を省略して、撮像画像G1に対して、特徴点抽出部22で、スプロケット51A2の歯51aの特徴点を抽出し、この特徴点から歯51aの摩耗量を測定してもよい。この場合には、図10に示すように、第2学習部45は、学習用画像記憶部41の学習用画像g1と特徴点記憶部43の学習用の特徴点a1〜a10、b1〜b10を教師データとして、特徴点識別器22aを生成する。上述した局所特徴量抽出部21aでは、画像取得部33から撮像画像G1が入力され、撮像画像G1のHOG特徴量が算出される。特徴点記憶部43では、撮像画像G1のHOG特徴量から、歯51aの特徴点A1〜A10、B1〜B10を抽出し、特徴点特定部22bがこれらの座標を特定する。したがって、このような場合には、図3に示す部位検出部21の他に、図3に示す抽出判定部34も省略することができ、領域・特徴点出力部35は、領域R1、R2を出力しない。さらに、図3に示す部位領域記憶部42および第1学習部44も省略することができる。
In the first embodiment shown above, the
以上、本実施形態では、特徴点抽出部22は、作業機械5の特定の種類の部品として、スプロケット51A2を含む学習用画像g1と、学習用画像g1においてスプロケット51A2が摩耗する部位である歯51aの形状を特定する複数の特徴点a1〜a10、b1〜b10と、を教師データとして、特徴点の抽出が機械学習されたものである。したがって、たとえば、撮像画像G1が、摩耗量を算出することができる撮像角度で、その部品の部位の形状を撮像している場合には、教師データによる学習に起因して、特徴点が抽出されるが、そのような撮像角度で撮像されていない場合には、特徴点が抽出されない。このような結果、摩耗量が精度良く算出できる撮像画像に対してのみ特徴点が抽出されるので、作業機械5のスプロケット51A2を含む画像G1から部品の部位の摩耗量をより正確に測定することができる。さらに、単なる画像処理のエッジ検出を利用したものに比べて、より正確に摩耗の状態を特徴点で捉えることができる。
As described above, in the present embodiment, the feature
さらに、図8に示すように、表示装置3Bにおいて、撮像装置3Eによって撮像された画像に仮想ゲージを合わせ込んだイメージ図と、摩耗量と推奨交換時期の相関を示すグラフのイメージ図を表示する。この表示を目安に現場の安全点検員が「そろそろ交換してはいかがですか」といった提案を顧客に示すことができる。
Further, as shown in FIG. 8, the
〔第2実施形態〕
図11は、第2実施形態に係る摩耗量測定システム1である。図11に示すように、本実施形態に係る摩耗量測定システム1が、第1実施形態のもの相違する点は、ガイド設定部32と、特徴点修正部36とを備えた点と、第2学習部45により再学習を実行する点である。したがって、第1実施形態と同じ構成は、その詳細な説明を省略する。なお、第2実施形態では、ガイド設定部32と、特徴点修正部36と、再学習機能とを、備えているが、第2実施形態の摩耗量測定システム1では、これらのうち少なくともとも1つを備えていてもよい。
[Second Embodiment]
FIG. 11 is a wear
本実施形態では、演算装置2Aは、表示装置3Bで表示された撮像装置3Eの映像(動画像)ga1に、撮影する部品の形状に応じた撮影用ガイド(基準線)T1を選択して、設定するためのガイド設定部32をさらに備えている。具体的には、図12に示すように、撮影用ガイドT1は、スプロケット51A2の特徴点を抽出する位置を特定するために表示されるものであり、本実施形態ではスプロケット51A2の歯51a(具体的には歯先)と、円周51bに沿った位置に設定されている。
In the present embodiment, the
このように、撮影用ガイドT1を設けることにより、操作者は、撮影用ガイドT1に沿ってスプロケット51A2の歯51aを撮像すればよいので、特徴点抽出部22により特徴点の抽出をより正確に行うことができる。なお、本実施形態では、通信端末3の地面(水平面)に対する傾きが、表示装置3Bで表示される映像にそのまま反映されている。しかしながら、通信端末3にジャイロセンサを設け、通信端末3の地面に対する傾きにかかわらず、表示装置3Bに撮影用ガイドT1を一定の姿勢で映像ga1に表示させてもよい。これにより、地面に対する通信端末3の姿勢にかかわらず、撮影用ガイドT1は変化しないので、より安定してスプロケット51A2の歯51aを撮像することができる。さらに、本実施形態では、操作者により撮像を行うが、たとえば、アプリケーションの起動から所定の時間経過後に、撮像装置3Eに自動的に撮像させてもよい。
By providing the photographing guide T1 in this way, the operator only has to image the
本実施形態では、演算装置3Aは、特徴点抽出部22で抽出された特徴点の位置の変更に合わせて、特徴点の位置を修正する特徴点修正部36をさらに備えている。本実施形態では、表示装置3Bは、図13に示すように、撮像画像G1とともに、撮像画像G1上に、特徴点抽出部22で抽出した特徴点を表示している。図13では、摩耗量の算出に寄与する特徴点A1、A2、A8、B6を示している。入力装置3Cは、表示装置3Bに表示された特徴点A1、A2、A8、B6に対して、撮像画像G1上で特徴点A1、A2、A8、B6の位置の変更を操作者が入力することができるようになっている。具体的には、特徴点修正部36は、表示装置3Bにより表示された特徴点の位置のうち、位置を変更すべき特徴点を、操作者がタップする(選択する)ことが可能になっている。特徴点修正部36は、タップによって、入力装置3Cを介して、操作者がタップした特徴点を含む部分を拡大表示させる。特徴点修正部36は、さらに、タップした特徴点(拡大表示された特徴点)を操作者が触れながら、現在の位置から修正したい位置に特徴点を移動し、移動した特徴点から操作者が指を離すと、そこに特徴点が変更されるようになっている。
In the present embodiment, the
ここでは、特徴点A1、B6の位置が適切な位置ではないので、入力装置3Cを介して、図13に示すように、操作者が特徴点A1、B6の位置を変更し、この結果、特徴点修正部36は、特徴点A1、B6の座標を修正する。このようにして、特徴点A1、B6の修正に伴い、摩耗量算出部37Aは、特徴点修正部36で修正した特徴点A1、B6に基づいてスプロケット51A2の歯51aの摩耗量をより正確に算出することができる。
Here, since the positions of the feature points A1 and B6 are not appropriate positions, the operator changes the positions of the feature points A1 and B6 via the input device 3C as shown in FIG. 13, and as a result, the features The point correction unit 36 corrects the coordinates of the feature points A1 and B6. In this way, with the correction of the feature points A1 and B6, the wear
本実施形態では、特徴点修正部36により、摩耗量の算出に寄与する特徴点A1、A2、A8、B6による修正を行ったが、たとえば、特徴点修正部36により、特徴点抽出部22で抽出したすべての特徴点の位置を修正するようにしてもよい。
In the present embodiment, the feature point correction unit 36 makes corrections by the feature points A1, A2, A8, and B6 that contribute to the calculation of the amount of wear. For example, the feature point correction unit 36 makes corrections in the feature
さらに、本実施形態では、演算装置2Aは、撮像画像G1と、修正した特徴点A1、B6を含む特徴点A1〜A10、B1〜B10とをさらなる教師データとして、第2学習部45で、特徴点抽出部22を再学習させてもよい。これにより、特徴点抽出部22による特徴点の抽出の精度をさらに高めることができる。
Further, in the present embodiment, the
図14に示すように、第2実施形態に係る摩耗量測定システム1では、ステップS92’が第1実施形態のものと相違し、さらに、ステップS96とステップS97の間に、ステップS141〜S143が追加された点が、第1実施形態のものと相違する。具体的には、ステップS92’では、操作者は、撮影用ガイドT2をスプロケット51A2の部位(歯51aおよび円周51b)に合わせた状態で、ステップS93において、スプロケット51A2の歯51aを撮像する。これにより、撮像画像G1の特定の位置に、摩耗量の測定対象となるスプロケット51A2の歯51aが配置されるため、部位検出部21による歯51aの領域の検出と、特徴点抽出部22による歯51aを含む特徴点の抽出をより的確に行うことができる。
As shown in FIG. 14, in the wear
さらに、ステップS141により、特徴点の位置が正しいかを判断し、正しい場合には、ステップS97に進み、これまで通り、摩耗量算出部37Aが、特徴点A1、A2、A8、B6から、歯51aの摩耗量(摩耗率)を算出する(図6B参照)。一方、特徴点の位置が正しくない場合には、操作者により、特徴点の位置を修正し、ステップS97に進む(図13参照)。具体的には、操作者が特徴点の位置(の候補)のうち、位置を変更したい特徴点をタップし、タップした特徴点の近辺が、表示装置3Bに拡大表示される。操作者が拡大表示された現在の位置から修正したい位置に特徴点を移動し、操作者が特徴点から指を離すと、そこに特徴点が変更される。特徴点修正部36で修正された特徴点に基づいて、摩耗量算出部37Aが、歯51aの摩耗量(摩耗率)を算出する。これに合わせて、ステップS143では、第2学習部45で特徴点抽出部22の再学習を行う。このような一連の作業により、操作者による特徴点の位置に修正に伴い、より正確に摩耗量を算出することができ、スプロケット51A2の交換時期を正確に求めることができる。
Further, in step S141, it is determined whether the position of the feature point is correct, and if it is correct, the process proceeds to step S97, and the wear
ここで、上に示す第2実施形態では、操作者の入力操作(入力ボタンを押すこと)により、撮像画像G1を取得した。しかしながら、図15に示す変形例に係る摩耗量測定システム1により、撮像画像G1を取得してもよい。この変形例では、撮像許可部33Aをさらに備えた点が、上に示す第2実施形態と主に相違する。
Here, in the second embodiment shown above, the captured image G1 is acquired by the input operation (pressing the input button) of the operator. However, the captured image G1 may be acquired by the wear
具体的には、図15に示すように、摩耗量測定システム1は、撮像画像G1を取得する前に、表示装置3Bが、撮像装置3Eからの映像(動画像)を表示するように構成されており、その映像(動画像)は、部位検出部21にも入力される。部位検出部21では、その映像から画像を取得して、スプロケット51A2の歯51aの領域R1、R2を検出するように構成されている。
Specifically, as shown in FIG. 15, in the wear
演算装置3Aには、映像からの画像において、部位検出部21がスプロケット51A2の歯51aの領域R1、R2を検出したタイミングで、撮像装置3Eにより撮像を許可する撮像許可部33Aを備えている。
The
画像取得部33は、部位検出部21がスプロケット51A2の歯51aの領域R1、R2を検出したタイミングで、すなわち、撮像許可部33Aが撮像の許可をしたタイミングで、撮像装置3Eに撮像画像G1の取得をさせる指令信号を出力する。これにより、撮像装置3Eにより、撮像画像G1が操作者の操作に拘わらず、自動的に取得される。取得された撮像画像G1は、部位検出部21がスプロケット51A2の歯51aの領域R1、R2を検出した画像であるため、特徴点抽出部22により、正確な位置の特徴点を抽出することができる。
The
〔第3実施形態〕
図16は、第3実施形態に係る摩耗量測定システム1である。図16に示すように、本実施形態に係る摩耗量測定システム1が、第2実施形態のもの相違する点は、複数種の部品に対して、摩耗量の測定を行う点であり、部品設定部31A、識別装置選択部31Bと、複数種の部品に応じた5つの識別装置20A〜20Eが設けられている。したがって、第2実施形態と同じ構成は、その詳細な説明を省略する。
[Third Embodiment]
FIG. 16 is a wear
本実施形態では、サーバ2の演算装置2Aは、作業機械5の複数種(5種類)の部品に応じて、識別装置20A〜20Eを備えている。なお、第1実施形態の変形例の如く、部位検出部21を省略する場合には、演算装置2Aは、複数(5つ)の特徴点抽出部22A〜22Eを備えている。
In the present embodiment, the
本実施形態では、識別装置20Aの部位検出部21Aでは、部品としてスプロケット51A2の歯(部位)51aの領域の検出を行い、特徴点抽出部22Aは、スプロケット51A2の特徴点の抽出を行う(図6A参照)。これは、第1および第2実施形態で説明したものと同じである。
In the present embodiment, the
識別装置20Bの部位検出部21Bでは、部品としてツース53Dの先端(部位)53cの領域の検出を行い、特徴点抽出部22Bは、ツース53Dの特徴点の抽出を行う(図17C参照)。識別装置20Cの部位検出部21Cでは、部品としてローラ51Cの支持部(部位)51gの領域の検出を行い、特徴点抽出部22Cは、ローラ51Cの特徴点の抽出を行う(図18C参照)。
The
識別装置20Dの部位検出部21Dでは、部品としてシュープレート(部品)51Dの凸部(部位)51hの領域の検出を行い、特徴点抽出部22Dは、シュープレート51Dの特徴点の抽出を行う(図19C参照)。識別装置20Eの部位検出部21Dでは、部品としてリンク(部品)51Bの凸部(部位)51hの領域の検出を行い、特徴点抽出部22Eは、リンク51Bの特徴点の抽出を行う(図20C参照)。
The site detection unit 21D of the
本実施形態では、通信端末3の演算装置3Aは、部品設定部31Aと、識別装置選択部31Bと、を備えている。部品設定部31Aは、複数種(5種)の部品から、1つの部品を設定するものであり、入力装置3Cを介した操作者が入力する入力情報により、1つの部品(具体的には部品のコード)が設定される。
In the present embodiment, the
識別装置選択部(抽出部選択部)31Bは、部品設定部31Aで設定された部品に応じて、複数(5つ)の識別装置20A〜20Eから、1つの識別装置を選択する。本実施形態では、操作者が、部品としてスプロケット51A2を選択した場合、部品設定部31Aでは、スプロケット51A2を部品として設定し、識別装置選択部31Bは、識別装置20Aを選択している。このように選択した識別装置20Aを用いて、第2実施形態で説明した構成により、一連のステップを経てスプロケット51A2の摩耗量を測定する。なお、第1実施形態の変形例を適用した場合は、識別装置20A〜20Eは、特徴点抽出部22A〜22Eで構成されるため、識別装置選択部31Bは、特徴点抽出部22A〜22Eと選択する。
The identification device selection unit (extraction unit selection unit) 31B selects one identification device from a plurality (five)
ここで、ガイド設定部32は、選択された部品に応じた撮影用ガイドT1〜T5の1つを選択して、これを設定する。具体的には、選択された部品がスプロケット51A2である場合には、第2実施形態で説明した撮影用ガイドT1を設定する。
Here, the
選択された部品がツース53Dである場合には、ガイド設定部32は、図17Aに示すように中央のツース53Dの両側の輪郭線とこれに垂直な線とからなる撮影用ガイドT2を映像ga2に設定する。選択された部品がローラ51Cである場合には、ガイド設定部32は、図18Aに示すようにローラ51Cの回転軸線と、支持部に沿った上下に輪郭線に相当する撮影用ガイドT3を映像ga3に設定する。
When the selected component is the
さらに、選択された部品がシュープレート51Dである場合には、ガイド設定部32は、図19Aに示すようにシュープレート51Dのうちリンク51Bに隣接する表面に沿った線と、この線に直交するシュープレート51Dの凸部51hの中央線とを撮影用ガイドT4として、映像ga4に設定する。さらに、選択された部品が、リンク51Bである場合には、ガイド設定部32は、図20Aに示すように、リンク51B同士の連接された連接孔に沿った円と、とリンク51Bの部材の輪郭線とを撮影用ガイドT5として映像ga5に設定する。
Further, when the selected component is the
ここで、以下に、学習済みモデルの生成について説明する。ツース53Dの場合には、図17Bに示すように、上述した方法と同様の方法で、学習用画像g2と、各ツース53Dの領域r31〜r35とを教師データとして用いて、図17cに示すように撮像画像G2における領域R31〜R35の検出が学習された部位検出部21Bを、第1学習部44で生成する。
Here, the generation of the trained model will be described below. In the case of the
さらに、上述した方法と同様の方法で、学習用画像g2と、各ツース53Dの特徴点c1〜c5とを教師データとして用いて、撮像画像G2における特徴点C1〜C5の抽出が学習された特徴点抽出部22Bを、第2学習部45で生成する。
Further, the feature in which the extraction of the feature points C1 to C5 in the captured image G2 is learned by using the learning image g2 and the feature points c1 to c5 of each
学習させる特徴点は、ツース53Dとバケット53Cとの交点を特徴点c1、c5とし、ツース53Dの取付け位置(アダプタとの境界点)を特徴点c2、c4、ツース53Dの先端を特徴点c3とする。
The feature points to be learned are the intersections of the
学習済みモデルである部位検出部21Bと特徴点抽出部22Bにより、図17Cに示すように、撮像画像G2に対して、各ツース53Dの領域R31〜R35を検出し、特徴点C1〜C5を抽出することができる。ここで、摩耗量算出部37Aは、特徴点C2と特徴点C4の線分の長さをX3とし、特徴点C3からこの線分に直交する線との交点までの長さをX4とし、X4/X3を算出することで、ツース53Dの摩耗量(摩耗率)を算出する。X4が摩耗により減少し、X3は殆ど変化しないので、X4/X3を算出することで、ツース53Dの摩耗の状態を把握することができる。
As shown in FIG. 17C, the
ローラ51Cの場合には、図18Bに示すように、上述した方法と同様の方法で、学習用画像g3と、ローラ51Cの領域r4とを教師データとして用いて、図18cに示すように撮像画像G3における領域R4の検出が学習された部位検出部21Cを、第1学習部44で生成する。
In the case of the roller 51C, as shown in FIG. 18B, the image g3 for learning and the region r4 of the roller 51C are used as teacher data in the same manner as described above, and the captured image is as shown in FIG. 18c. The
さらに、上述した方法と同様の方法で、学習用画像g3と、各ローラ51Cの特徴点d1〜d8とを教師データとして用いて、撮像画像G3における特徴点D1〜D8の抽出が学習された特徴点抽出部22Cを、第2学習部45で生成する。
Further, the feature in which the extraction of the feature points D1 to D8 in the captured image G3 is learned by using the learning image g3 and the feature points d1 to d8 of each roller 51C as teacher data in the same manner as the above-described method. The
学習させる特徴点は、ローラ51Cの回転軸線と支持部51gの両端の輪郭線との交点を特徴点d1、d2とし、ローラ51Cの支持部51gの輪郭線に沿った点を特徴点d3〜d8とする。ローラ51Cが新品の場合には、特徴点d3〜d8を結ぶ線は、略直線であり、摩耗が進行するに従って、図18Bに示すように、これらの線が凹んだ曲線になる。
The feature points to be learned are the intersections of the rotation axis of the roller 51C and the contour lines at both ends of the
学習済みモデルである部位検出部21Cと特徴点抽出部22Cにより、図18Cに示すように、撮像画像G3に対して、各ローラ51Cの支持部51gの領域R4を検出し、特徴点D1〜D8を抽出することができる。ここで、摩耗量算出部37Aは、特徴点D4と特徴点D8との回転軸線方向の距離をX5とし、特徴点D4と特徴点D8との回転軸線と直交方向の距離をX6とし、X6/X5を算出することで、ローラ51Cの摩耗量(摩耗率)を算出する。X6が摩耗により減少し、X5は殆ど変化しないので、X6/X5を算出することで、ローラ51Cの摩耗の状態を把握することができる。
As shown in FIG. 18C, the region detection unit 21C and the feature
シュープレート51Dの場合には、図19Bに示すように、上述した方法と同様の方法で、学習用画像g4と、各シュープレート51Dの領域r5とを教師データとして用いて、図19cに示すように撮像画像G4における領域R5の検出が学習された部位検出部21Dを、第1学習部44で生成する。
In the case of the
さらに、上述した方法と同様の方法で、学習用画像g4と、各シュープレート51Dの特徴点e1〜e19とを教師データとして用いて、撮像画像G4における特徴点E1〜E19の抽出が学習された特徴点抽出部22Dを、第2学習部45で生成する。
Further, the extraction of the feature points E1 to E19 in the captured image G4 was learned by using the learning image g4 and the feature points e1 to e19 of each
学習させる特徴点は、シュープレート51Dがリンク51Bと隣接する背面に沿った直線上の点を特徴点e1〜e4とし、シュープレート51Dの凸部51hとこれらの間の谷部に沿った点を特徴点e5〜e19とする。
The feature points to be learned are the points on the straight line along the back surface of the
学習済みモデルである部位検出部21Dと特徴点抽出部22Dにより、図19Cに示すように、撮像画像G4に対して、シュープレート51Dの凸部51hの領域R5を検出し、特徴点E1〜E19を抽出することができる。ここで、摩耗量算出部37Aは、両側の凸部51hの頂点に位置する特徴点E6とE18との距離をX7とし、特徴点E12から、特徴点E6、E18を結ぶ線分と特徴点E2との距離をX8とし、X8/X7を算出することでシュープレート51Dの摩耗量(摩耗率)を算出する。X8が摩耗により減少し、X7は殆ど変化しないので、X8/X7を算出することで、シュープレート51Dの摩耗の状態を把握することができる。
As shown in FIG. 19C, the region detection unit 21D and the feature point extraction unit 22D, which are trained models, detect the region R5 of the
リンク51Bの場合には、図20Bに示すように、上述した方法と同様の方法で、学習用画像g5と、各リンク51Bの領域r6とを教師データとして用いて、図20cに示すように撮像画像G5における領域R6の検出が学習された部位検出部21Eを、第1学習部44で生成する。
In the case of the
さらに、上述した方法と同様の方法で、学習用画像g5と、リンク51Bの特徴点f1〜f18とを教師データとして用いて、撮像画像G5における特徴点F1〜F18の抽出が学習された特徴点抽出部22Eを、第2学習部45で生成する。
Further, in the same manner as the above-described method, the learning image g5 and the feature points f1 to f18 of the
学習させる特徴点は、各リンク51Bの長手方向に沿った輪郭線上の点を特徴点f1〜f8とし、リンク51Bの連結部および孔の位置を特定する点を特徴点f9〜f18とする。
As the feature points to be learned, the points on the contour line along the longitudinal direction of each
学習済みモデルである部位検出部21Eと特徴点抽出部22Eにより、図20Cに示すように、撮像画像G5に対して、リンク51Bの領域R6を検出し、特徴点F1〜F18を抽出することができる。ここで、摩耗量算出部37Aは、リンク51Bの両側の側に位置する特徴点F9とF18との距離をX9とし、これらの間に位置する特徴点F12(または特徴点F15)から、特徴点F9とF18とを結ぶ直線までの距離をX10とし、X10/X9を算出することでリンク51Bの摩耗量(摩耗率)を算出する。X10が摩耗により減少し、X9は殆ど変化しないので、X10/X9を算出することで、リンク51Bの摩耗の状態を把握することができる。なお、本実施形態では、1つのリンク51Bに対しての摩耗量を算出したが、たとえば、複数のリンク51Bの全体長さをX9とし、X10/X9の値を算出すれば、より正確なリンク51Bの摩耗を把握することができる。
As shown in FIG. 20C, the region detection unit 21E and the feature
このように、本実施形態では、作業機械5の複数の部品の部位に対して、これらの部品を選択することで、それぞれの摩耗量を測定することができ、作業機械5の摩耗し易い部品の交換時期を1つの摩耗量測定システム1を用いて、顧客に提案することができる。なお、選択した部品が、ローラ51C、シュープレート51D、ツース53Dである場合には、基準ゲージ設定部37Cにより、スプロケットの場合と同様に、これらの形状に応じた基準ゲージを設定してもよい。
As described above, in the present embodiment, by selecting these parts for the parts of the plurality of parts of the
以上、本発明の実施の形態を用いて詳述してきたが、具体的な構成はこの実施形態及び実施例に限定されるものではなく、本発明の要旨を逸脱しない範囲における設計変更があっても、それらは本発明に含まれるものである。 Although the details have been described above using the embodiment of the present invention, the specific configuration is not limited to this embodiment and the embodiment, and there are design changes within a range not deviating from the gist of the present invention. Also, they are included in the present invention.
第2実施形態の変形例では、撮像判定部が、部位検出部により検出された結果を判定して、撮像装置による撮像のタイミングを判定したが、このような構成を、例えば、第3実施形態の摩耗量測定システムに適用してもよいことは勿論である。さらに、このような判定を行えば、摩耗量を特定するに好適な画像が取得できるので、特徴点抽出部を用いずに、取得した画像から部品の部位の摩耗を特定してもよい。 In the modified example of the second embodiment, the imaging determination unit determines the result detected by the site detection unit to determine the timing of imaging by the imaging device. Of course, it may be applied to the wear amount measuring system of. Further, if such a determination is made, an image suitable for specifying the amount of wear can be acquired. Therefore, the wear of the part of the component may be specified from the acquired image without using the feature point extraction unit.
さらに、第2および第3実施形態では、学習部として、第2学習部のみを設けたが、第1実施形態と同様の学習部を第2および第3実施形態の演算装置2Aに設けてもよい。
Further, in the second and third embodiments, only the second learning unit is provided as the learning unit, but the same learning unit as in the first embodiment may be provided in the
本実施形態では、摩耗量として摩耗度を算出することにより、交換時期を予測しているが、たとえば、図8に示すような基準ゲージと摩耗を測定する部位との隙間の大きさを、演算装置が演算し、基準ゲージと部位の画像と、隙間の大きさの演算結果を表示装置に出力し、対象部位の交換の判定を操作者等が行ってもよい。 In the present embodiment, the replacement time is predicted by calculating the degree of wear as the amount of wear. For example, the size of the gap between the reference gauge and the part where the wear is measured as shown in FIG. 8 is calculated. The device may calculate, output the image of the reference gauge and the part, and the calculation result of the size of the gap to the display device, and the operator or the like may determine the replacement of the target part.
1:摩耗量測定システム、2A:演算装置、3A:演算装置、3B:表示装置、3C:入力装置、3E:撮像装置、21:部位検出部、22:特徴点抽出部、5:作業機械、34:抽出判定部、36:特徴点修正部、37A:摩耗量算出部、37B:交換時期算出部、37C:基準ゲージ設定部、51A:スプロケット(部品)、51a:歯(部位)、51B:リンク(部品)、51C:ローラ(部品)、51h:凸部、51D:シュープレート(部品)、51g:支持部(部位)、53D:ツース、53c:先端(部位) 1: Wear measurement system, 2A: Arithmetic logic unit, 3A: Arithmetic logic unit, 3B: Display device, 3C: Input device, 3E: Imaging device, 21: Site detection unit, 22: Feature point extraction unit, 5: Work machine, 34: Extraction judgment unit, 36: Feature point correction unit, 37A: Wear amount calculation unit, 37B: Replacement time calculation unit, 37C: Reference gauge setting unit, 51A: Sprocket (parts), 51a: Teeth (part), 51B: Link (part), 51C: Roller (part), 51h: Convex part, 51D: Shoe plate (part), 51g: Support part (part), 53D: Tooth, 53c: Tip (part)
Claims (10)
前記演算装置は、
前記作業機械の特定の種類の部品を含む学習用画像と、前記学習用画像において前記部品が摩耗する部位の形状を特定する複数の特徴点と、を教師データとして、前記特徴点の抽出が機械学習され、前記撮像画像から前記撮像画像における前記部位の特徴点を抽出する特徴点抽出部と、
前記特徴点から、前記部位の摩耗量を算出する摩耗量算出部と、を備える、摩耗量測定システム。 It is a wear amount measurement system equipped with an arithmetic unit that calculates the wear amount of the parts from an image captured including parts of a work machine.
The arithmetic unit
Using a learning image including a specific type of part of the work machine and a plurality of feature points for specifying the shape of a portion where the part is worn in the learning image as teacher data, the extraction of the feature point is a machine. A feature point extraction unit that is learned and extracts feature points of the portion in the captured image from the captured image,
A wear amount measuring system including a wear amount calculation unit for calculating the wear amount of the portion from the feature points.
前記演算装置は、前記学習用画像と、前記学習用画像において前記部品の摩耗する部位の領域と、を教師データして、前記領域の検出が機械学習され、前記撮像画像から前記撮像画像における前記部品の前記部位の領域を検出する部位検出部をさらに備えており、
前記表示装置は、前記撮像画像上に、前記部位検出部で検出した前記部品の領域を表示する、請求項1に記載の摩耗量測定システム。 The wear amount measuring system includes an imaging device and a display device that displays the captured image from the imaging device.
The arithmetic device uses the learning image and the region of the worn portion of the component in the learning image as teacher data, and the detection of the region is machine-learned from the captured image to the captured image. It further includes a part detection unit that detects the area of the part of the part.
The wear amount measuring system according to claim 1, wherein the display device displays a region of the component detected by the site detection unit on the captured image.
前記演算装置は、前記表示装置で表示された映像に、前記部品の形状に応じた撮影用ガイドを設定するガイド設定部と、前記撮像装置から前記撮像画像を取得する画像取得部と、をさらに備える、請求項1に記載の摩耗量測定システム。 The wear amount measuring system includes an image pickup device and a display device for displaying an image from the image pickup device.
The arithmetic unit further includes a guide setting unit that sets a shooting guide according to the shape of the component on the image displayed by the display device, and an image acquisition unit that acquires the captured image from the imaging device. The wear amount measuring system according to claim 1.
前記演算装置は、前記表示装置で表示された映像に、前記部品の形状に応じた撮影用ガイドを設定するガイド設定部と、前記撮像装置から前記撮像画像を取得する画像取得部と、をさらに備え、
前記画像取得部は、前記映像からの画像において、前記部位検出部が前記部位の領域を検出したタイミングで、前記撮像装置に前記撮像画像を取得させる、請求項2に記載の摩耗量測定システム。 In the wear amount measuring system, the display device displays an image from the image pickup device.
The arithmetic unit further includes a guide setting unit that sets a shooting guide according to the shape of the component on the image displayed by the display device, and an image acquisition unit that acquires the captured image from the imaging device. Prepare,
The wear amount measuring system according to claim 2, wherein the image acquisition unit causes the image pickup apparatus to acquire the captured image at a timing when the site detection unit detects a region of the site in an image from the video.
前記表示装置に表示された特徴点に対して、前記撮像画像上で前記特徴点の位置の変更を入力する入力装置と、をさらに備え、
前記演算装置は、前記特徴点の位置の変更に合わせて、前記特徴点の位置を修正する特徴点修正部を備えており、
前記摩耗量算出部は、前記特徴点修正部で修正した特徴点に基づいて前記部位の摩耗量を算出する、請求項1に記載の摩耗量測定システム。 The wear amount measuring system includes a display device that displays the feature points extracted by the feature point extraction unit on the captured image together with the captured image.
An input device for inputting a change in the position of the feature point on the captured image with respect to the feature point displayed on the display device is further provided.
The arithmetic unit includes a feature point correction unit that corrects the position of the feature point in accordance with a change in the position of the feature point.
The wear amount measuring system according to claim 1, wherein the wear amount calculation unit calculates the wear amount of the portion based on the feature points corrected by the feature point correction unit.
前記演算装置は、前記表示装置で表示された前記撮像画像の前記部位に対して、前記部位の摩耗前の表面形状に応じた基準ゲージの画像を設定する基準ゲージ設定部をさらに備える、請求項8に記載の摩耗量測定システム。 The wear amount measuring system includes a display device that displays the captured image and the replacement time.
The arithmetic unit further includes a reference gauge setting unit that sets an image of a reference gauge according to the surface shape of the portion before wear with respect to the portion of the captured image displayed on the display device. 8. The wear amount measuring system according to 8.
前記摩耗量測定システムは、前記複数種の部品から、1つの部品を設定する部品設定部と、
前記部品設定部で設定された部品に応じて、前記複数の特徴点抽出部から、1つの特徴点抽出部を選択する抽出部選択部と、をさらに備え、
前記抽出部選択部で選択された特徴点抽出部が、設定された前記部品の特徴点を抽出する、請求項1に記載の摩耗量測定システム。 The arithmetic unit includes a plurality of the feature point extraction units according to a plurality of types of parts of the work machine.
The wear amount measuring system includes a component setting unit that sets one component from the plurality of types of components, and a component setting unit.
Further, an extraction unit selection unit that selects one feature point extraction unit from the plurality of feature point extraction units according to the parts set by the component setting unit is further provided.
The wear amount measuring system according to claim 1, wherein the feature point extraction unit selected by the extraction unit selection unit extracts the set feature points of the component.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019153951A JP2021032736A (en) | 2019-08-26 | 2019-08-26 | Wear amount measurement system |
PCT/JP2020/031866 WO2021039731A1 (en) | 2019-08-26 | 2020-08-24 | Wear amount measurement system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019153951A JP2021032736A (en) | 2019-08-26 | 2019-08-26 | Wear amount measurement system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021032736A true JP2021032736A (en) | 2021-03-01 |
Family
ID=74678541
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019153951A Pending JP2021032736A (en) | 2019-08-26 | 2019-08-26 | Wear amount measurement system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021032736A (en) |
WO (1) | WO2021039731A1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9613413B2 (en) * | 2012-10-17 | 2017-04-04 | Caterpillar Inc. | Methods and systems for determining part wear based on digital image of part |
JP6487493B2 (en) * | 2017-05-18 | 2019-03-20 | ファナック株式会社 | Image processing system |
WO2019130945A1 (en) * | 2017-12-27 | 2019-07-04 | ソニー株式会社 | Information processing device, information processing method, program, and moving body |
JP7094702B2 (en) * | 2018-01-12 | 2022-07-04 | キヤノン株式会社 | Image processing device and its method, program |
-
2019
- 2019-08-26 JP JP2019153951A patent/JP2021032736A/en active Pending
-
2020
- 2020-08-24 WO PCT/JP2020/031866 patent/WO2021039731A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2021039731A1 (en) | 2021-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104217350B (en) | Virtual try-on realization method and device | |
JP5791812B2 (en) | Clothes image processing device, clothes image display method, and program | |
EP2831537B1 (en) | Apparatus, method and computer program for three-dimensional measurement | |
EP2553383B1 (en) | Method and apparatus for generating texture in a three-dimensional scene | |
US10445872B2 (en) | Machine control measurements device | |
JP2017117341A (en) | Object detection method, device and program | |
CN108027667A (en) | Information processing equipment, information processing method and program | |
WO2021039731A1 (en) | Wear amount measurement system | |
JPWO2005096129A1 (en) | Method and apparatus for detecting designated position of imaging apparatus, and program for detecting designated position of imaging apparatus | |
WO2005096130A1 (en) | Method and device for detecting directed position of image pickup device and program for detecting directed position of image pickup device | |
CN110873551A (en) | Inspection apparatus | |
EP3723039A1 (en) | Tip attachment discrimination device | |
EP3518521B1 (en) | Method for realizing effect of photo being taken by others through selfie, and photographing device | |
JP2020010166A (en) | Image processing system and control method thereof, imaging apparatus, program | |
JP6632298B2 (en) | Information processing apparatus, information processing method and program | |
JP6597702B2 (en) | Setup assist system | |
JP2007218922A (en) | Image measuring device | |
JP2019086916A (en) | Work support device, work support method, and work support program | |
JP2017068437A (en) | Body detection apparatus, body detection method, and body detection program | |
WO2021084690A1 (en) | Information processing system, information processing device, insole, information processing method, and recording medium | |
JP6853031B2 (en) | Information processing equipment, information processing system, information processing method, and program | |
JPH04323503A (en) | Image processor | |
JP2018106358A (en) | Setup assisting system | |
CN111506280A (en) | Graphical user interface for indicating off-screen points of interest | |
JP2023023802A (en) | Image evaluation apparatus |