JP2024507090A - 接地係合ツールの摩耗および喪失検出システムならびに方法 - Google Patents
接地係合ツールの摩耗および喪失検出システムならびに方法 Download PDFInfo
- Publication number
- JP2024507090A JP2024507090A JP2023546489A JP2023546489A JP2024507090A JP 2024507090 A JP2024507090 A JP 2024507090A JP 2023546489 A JP2023546489 A JP 2023546489A JP 2023546489 A JP2023546489 A JP 2023546489A JP 2024507090 A JP2024507090 A JP 2024507090A
- Authority
- JP
- Japan
- Prior art keywords
- image
- interest
- region
- wear
- analyzer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 71
- 238000000034 method Methods 0.000 title claims description 171
- 238000013135 deep learning Methods 0.000 claims description 56
- 238000010586 diagram Methods 0.000 abstract description 30
- 238000005259 measurement Methods 0.000 abstract description 26
- 230000008569 process Effects 0.000 description 60
- 239000000463 material Substances 0.000 description 17
- 238000013528 artificial neural network Methods 0.000 description 15
- 238000003708 edge detection Methods 0.000 description 14
- 238000010801 machine learning Methods 0.000 description 7
- 238000005065 mining Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 238000011143 downstream manufacturing Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000009412 basement excavation Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 229910052500 inorganic mineral Inorganic materials 0.000 description 2
- 239000011707 mineral Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000001012 protector Effects 0.000 description 2
- 239000011435 rock Substances 0.000 description 2
- 239000002689 soil Substances 0.000 description 2
- 208000008312 Tooth Loss Diseases 0.000 description 1
- 208000004188 Tooth Wear Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 239000010426 asphalt Substances 0.000 description 1
- 239000004567 concrete Substances 0.000 description 1
- -1 earth Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000036449 good health Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013433 optimization analysis Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000003449 preventive effect Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- E—FIXED CONSTRUCTIONS
- E02—HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
- E02F—DREDGING; SOIL-SHIFTING
- E02F9/00—Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
- E02F9/26—Indicating devices
- E02F9/267—Diagnosing or detecting failure of vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- E—FIXED CONSTRUCTIONS
- E02—HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
- E02F—DREDGING; SOIL-SHIFTING
- E02F9/00—Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
- E02F9/28—Small metalwork for digging elements, e.g. teeth scraper bits
- E02F9/2808—Teeth
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/513—Sparse representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Mining & Mineral Resources (AREA)
- Structural Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Civil Engineering (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Earth Drilling (AREA)
- Braking Arrangements (AREA)
Abstract
例示的な摩耗検出システム(110)は、少なくとも一つの接地係合ツール(GET)(125)を有する作業機械(100)のバケット(120)の左画像(510)および右画像(520)を受信する。例示的なシステムは、GETに対応する左画像から第一の関心領域(550)を識別し、GETに対応する右画像から第二の関心領域(560)を識別する。例示的なシステムはまた、第一の関心領域に対応する左エッジデジタル画像(740)と、第二の関心領域に対応する右エッジデジタル画像(750)も生成する。さらに、例示的なシステムは、左エッジデジタル画像と右エッジデジタル画像との間の低密度ステレオ視差(760)を判定し、GETに関連する測定データを判定し、また測定データに基づいて、少なくとも一つのGETに対する摩耗レベルまたは喪失も判定する。
【選択図】図1
【選択図】図1
Description
本開示は、コンピュータビジョン技術を使用して、経時的な物体の摩耗を検出するためのシステムおよび方法、より詳細には、経時的な接地係合ツール(GET)の摩耗または喪失を検出するためのシステムおよび方法に関する。
機械は、作業現場で様々なタスクを行うために使用されうる。例えば、機械は、砂利、コンクリート、アスファルト、土壌、および/または他の材料など、作業現場に存在する材料の掘削、移動、成形、輪郭形成、および/または除去に使用されうる。これらの機械は、こうした材料を収集するために使用されるバケットを含んでもよく、バケットは、材料をほぐすために、歯などの接地係合ツール(GET)のセットを含んでもよい。GETはまた、バケットの縁を保護するために、歯の間にバケットに取り付けられたシュラウドを含みうる。経時的に、GETは摩耗し、サイズが小さくなり、効果が低下するため、バケットが作業現場の材料を収集することがより困難になる。GETはバケットから壊れる可能性がある。GETの破損が検出されない場合、GETは作業現場の材料と混合する可能性があり、砕石機または粉砕機などの下流の処理機器に損傷を与える可能性がある。作業機械は、摩耗検出システムを利用して、下流の機器への損傷が発生する前に、摩耗または破損したGETを識別しうる。
摩耗検出システムを提供する試みは、2019年12月5日に公開された国際公開第2019/227194号(以下、’194号公開)に記載されている。具体的には、’194号公開は、作業機械のバケットの歯など、重機の動作器具の状態を監視するための方法およびシステムについて記載している。方法およびシステムは、動作器具の画像を受信し、画像内の関心領域を識別するように訓練された第一のニューラルネットワークを使用して、それを処理する。各関心領域は、重要領域または非重要領域として関連付けられた名称を有する。重機に近接した組み込みプロセッサは、第二のニューラルネットワークを使用して重要領域をさらに処理し、動作器具上の“摩耗目印”を識別する。次に、システムおよび方法は、摩耗目印を基準画像と比較し、動作器具の摩耗を判定する。
’194号公開のニューラルネットワークへの信頼、および摩耗レベルを識別するための機械学習は、摩耗状態の迅速な検出および予防的保守の正確なスケジューリングを可能にするスケールでGET摩耗を測定することが困難でありうるため、問題となる可能性がある。例えば、ニューラルネットワークおよび機械学習の排他的な使用は、数センチメートル以内の測定精度のみを提供することができるが、5ミリメートル未満の範囲での精度が望ましい場合がある。さらに、’194号公開に記載されるような機械学習技術は、GETの摩耗または喪失に関する大量の「偽陽性」が生じやすく、それらの効果を失わせる可能性がある。本明細書に記載されるシステムおよび方法は、これらの懸念のうちの一つ以上の対処を対象としうる。
第一の態様によれば、接地係合ツール(GET)の摩耗または喪失を検出するための方法は、作業機械に関連付けられた立体カメラから、作業機械のバケットの左画像および右画像を受信することを含む。バケットには少なくとも一つのGETがある。方法は、少なくとも一つのGETに対応する左画像から第一の関心領域を識別し、少なくとも一つのGETに対応する右画像から第二の関心領域を識別することをさらに含む。方法はまた、第一の関心領域に対応する左エッジデジタル画像を生成し、第二の関心領域に対応する右エッジデジタル画像を生成することも含む。方法はまた、左エッジデジタル画像と右エッジデジタル画像との間の低密度ステレオ視差を判定することも含む。低密度ステレオ視差に基づいて、方法は、少なくとも一つのGETの摩耗レベルまたは喪失を判定する。
さらなる態様によれば、GET摩耗検出システムは、立体カメラ、一つ以上のプロセッサ、および実行可能な命令を格納する非一時的コンピュータ可読媒体を含む。プロセッサによって実行されると、実行可能な命令は、プロセッサに、作業機械のバケットの左画像および右画像を立体カメラから受信することを含む動作を実行させる。バケットには少なくとも一つのGETがある。動作はまた、少なくとも一つのGETに対応する左画像から第一の関心領域を識別し、少なくとも一つのGETに対応する右画像から第二の関心領域を識別することを含む。動作はまた、第一の関心領域に対応する左エッジデジタル画像を生成し、第二の関心領域に対応する右エッジデジタル画像を生成することを含む。動作は、左エッジデジタル画像と右エッジデジタル画像との間の低密度ステレオ視差を判定することをさらに含む。低密度ステレオ視差に基づいて、プロセッサは、少なくとも一つのGETの摩耗レベルまたは喪失を判定する。
別の態様によれば、作業機械は、左モノクロ画像センサ、右モノクロ画像センサ、およびカラー画像センサを有する、を含む。作業機械はまた、少なくとも一つの接地係合ツール(GET)、一つ以上のプロセッサ、および一つ以上のプロセッサによって実行されると、一つ以上のプロセッサに動作を行わせる実行可能な命令を格納する非一時的コンピュータ可読媒体を有するバケットを含む。動作は、左モノクロ画像センサによって捕捉されたバケットの左画像、左モノクロ画像センサによって捕捉されたバケットの右画像、および立体カメラからカラー画像センサによって捕捉されたバケットのカラー画像を受信することを含みうる。動作はまた、左画像および右画像に深層学習GET検出アルゴリズムを適用し、左画像および右画像に対して高密度ステレオ視差マップを生成することによって、左画像からの第一の関心領域および右画像からの第二の関心領域を識別することを含む。動作はまた、勾配の大きさエッジ検出技術を使用して、左の関心領域に対応する左エッジデジタル画像および右の関心領域に対応する右エッジデジタル画像を生成することを含む。動作はまた、左エッジデジタル画像と右エッジデジタル画像との間の低密度ステレオ視差を判定すること、および低密度ステレオ視差に基づいて、少なくとも一つのGETの摩耗レベルまたは喪失を判定することを含む。
詳細な説明は、添付図面を参照して記載される。図中、参照番号の左端の桁は、参照番号が最初に現れる図を識別する。異なる図中の同じ参照番号は、類似または同一の項目を示す。
本開示は、一般に、コンピュータビジョン技術を使用して、作業現場などの環境中の作業機械の構成要素の摩耗を検出するためのシステムおよび方法を対象とする。一部の例では、作業機械に関連付けられた立体カメラ(または「ステレオカメラ」)は、作業機械の構成要素のビデオを捕捉する。ビデオは、ステレオカメラ内またはステレオカメラの外部に配置されうる、作業機械に関連付けられた摩耗検出コンピュータシステムによって分析され、構成要素の摩耗を検出する。構成要素は、一例として、作業機械のバケットの一つ以上の接地係合ツール(GET)とすることができる。ステレオカメラは、GETを含む左画像および右画像を捕捉し、摩耗検出コンピュータシステムは、ステレオコンピュータビジョン技術を使用して画像を処理して、GETに対応する左画像および右画像の両方の関心領域を識別する。追加的に、または代替的に、左および右画像の両方で関心領域を識別するように訓練された深層学習GET検出アルゴリズムを用いることができる。摩耗検出コンピュータシステムが左画像および右画像の両方の関心領域を識別すると、関心領域をさらに処理して、GETに関連付けられたエッジを生成する。摩耗検出コンピュータシステムは、左エッジデジタル画像および右エッジデジタル画像を使用して低密度ステレオ視差を判定し、低密度ステレオ視差を同じGETの以前判定された低密度ステレオ視差と比較するか、または低密度ステレオ視差を基準画像と比較することによって、低密度ステレオ視差内に囲まれたピクセルの数に基づいてGETの摩耗または喪失を判定する。左エッジデジタル画像と右エッジデジタル画像との間の低密度ステレオ視差を使用することで、本明細書に開示されるシステムおよび方法は、5mm未満の精度のレベルでGETの摩耗または喪失を正確に測定できる。
図1は、例示的な摩耗検出コンピュータシステム110を含む、例示的な作業機械100の概略図を示すブロック図である。図1は、油圧採掘ショベルとしての作業機械100を示すが、他の例では、作業機械100は、土、岩、または鉱物などの材料を移動、彫刻、掘り出し、または除去する任意の機械を含みうる。図1に示すように、作業機械100は、アーム122に取り付けられたバケット120を含みうる。バケット120は、材料をほぐす作業機械100を支援する、歯などの一つ以上の接地係合ツール(GET)125を含みうる。本開示で提供される例は、典型的には、歯としてGET125を指すが、他の種類のGETは、本開示によって提供される実施形態の範囲内であることが企図される。例えば、GETには、リップシュラウド、エッジガード、アダプタ、リッパープロテクタ、切れ刃、サイドバープロテクタ、先端、または作業現場の材料との摩擦により経時的に摩耗する作業機械に関連する任意の他のツールが含まれうる。
作業機械100はまた、ステレオカメラ128を含みうる。カメラ128は、バケット120およびGET125に向けられた視野129を有する。ステレオカメラ128は、バケット120およびGET125などの視野129内の物体のステレオ画像を捕捉するために間隔を置いている左画像センサおよび右画像センサを含む。いくつかの実施形態では、左画像センサおよび右画像センサは、モノクロ画像を捕捉する。ステレオカメラ128はまた、視野129内の物体のカラー画像を捕捉するためのカラー画像センサを含みうる。一部の実施形態では、カメラ128の出力デジタル画像または作業機械100は、カメラ128と摩耗検出コンピュータシステム110との間に配置されるアナログデジタル変換器を含んで、摩耗検出コンピュータシステム110によって受信される前にアナログ画像をデジタル画像に隠してもよい。
作業機械100が作業現場内で動作するとき、アーム122を移動してバケット120を位置付けて、作業現場内の材料を掘り出しダンプサイクルの一部として移動または掘り出すことができる。作業機械100が、掘り出しダンプサイクルを通してバケット120を位置付けるとき、バケット120は、カメラ128の視野129の内および外に移動しうる。カメラ128は、掘り出しダンプサイクル中にGET125の見通しを有するように位置付けられてもよい。例えば、カメラ128は、バケット120およびGET125が、バケット120が掘り出しダンプサイクル内で材料を空にする瞬間に見えるように、作業機械100上に位置付けられてもよい。別の例として、カメラ128は、アーム122が掘り出しダンプサイクル内で完全に伸張された、または完全に収縮された時に、バケット120がその視野に入るように位置付けられてもよい。以下で図2~4に関して説明する通り、カメラ128の位置は、作業機械100の種類およびその作業現場に関連する詳細に応じて変化しうる。
一部の実施形態によれば、作業機械100は、オペレータ制御パネル130を含みうる。オペレータ制御パネル130は、オペレータが摩耗検出コンピュータシステム110に関連する状態または警報を受信できるように、作業機械100のオペレータのために出力を生成するディスプレイ133を含みうる。ディスプレイ133は、液晶ディスプレイ(LCD)、発光ダイオードディスプレイ(LED)、陰極線管(CRT)ディスプレイ、または当技術分野で既知のその他の種類のディスプレイを含みうる。いくつかの例では、ディスプレイ133は、スピーカまたはヘッドフォンまたは周辺スピーカ用ポートなどの音声出力を含みうる。ディスプレイ133はまた、マイクまたは周辺マイク用ポートなどの音声入力装置を含みうる。ディスプレイ133は、実施形態によっては、タッチセンサ式ディスプレイ画面を含んでもよく、これもまた入力装置として作用しうる。
いくつかの実施形態では、オペレータ制御パネル130はまた、キーボード137を含みうる。キーボード137は、摩耗検出コンピュータシステム110に入力能力を提供することができる。キーボード137は、作業機械100のオペレータが摩耗検出コンピュータシステム110への入力を提供することを可能にする、複数のキーを含みうる。例えば、オペレータは、本開示の例に従って、キーボード137のキーを押して、作業機械100、バケット120、および/またはGET125の種類を選択または入力してもよい。キーボード127は、非仮想的(例えば、物理的に押すことのできるキーを含む)であってもよく、またはキーボード127は、ディスプレイ133のタッチセンサ式実施形態上に示される仮想キーボードであってもよい。
図1に示すように、摩耗検出コンピュータシステム110は、一つ以上のプロセッサ140を含みうる。プロセッサ140は、中央処理装置(CPU)、グラフィック処理装置(GPU)、フィールドプログラマブルゲートアレイ(FPGA)、CPU、GPU、またはFPGAのいくつかの組み合わせ、あるいは任意の他の種類の処理装置のうちの一つ以上を含みうる。プロセッサ140は、算術演算および論理演算を行う多数の算術論理ユニット(ALU)、ならびに命令および保存されたコンテンツをプロセッサキャッシュメモリから抽出し、その後、必要に応じてプログラム実行時にALUを呼び出すことによって命令を実行する一つ以上の制御ユニット(CU)を有してもよい。プロセッサ140はまた、一般的な種類の揮発性(RAM)および/または不揮発性(ROM)メモリと関連付けられうる、メモリ150に格納されたアプリケーション、ルーチン、またはプロセスに対して、ドライバおよびその他のコンピュータ実行可能命令を実行する責任も負ってもよい。
いくつかの実施形態では、摩耗検出コンピュータシステム110は、メモリ150を含みうる。メモリ150は、揮発性(RAMなど)、不揮発性(ROM、フラッシュメモリなど)、または二つのなんらかの組み合わせでありうるシステムメモリを含みうる。メモリ150は、コンピュータ可読命令、データ構造、プログラムモジュール、または他のデータなどの情報を格納するための任意の方法または技術に実装された、揮発性および不揮発性、リムーバブルおよび非リムーバブル媒体などの非一時的コンピュータ可読媒体をさらに含みうる。システムメモリ、リムーバブルストレージ、および非リムーバブルストレージはすべて、非一時的コンピュータ可読媒体の例である。非一時的コンピュータ可読媒体の例としては、限定されるものではないが、RAM、ROM、EEPROM、フラッシュメモリまたは他のメモリ技術、CD-ROM、デジタル多用途ディスク(DVD)または他の光学記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置または他の磁気記憶装置、あるいは所望の情報を格納するために使用することができ、摩耗検出コンピュータシステム110によってアクセスできる任意の他の非一時的媒体が挙げられる。
メモリ150は、本明細書に記載されるように、摩耗検出コンピュータシステム110のために、コンピュータ実行可能命令を含むデータを格納することができる。例えば、メモリ150は、物理的パラメータライブラリ160、画像アナライザ170、摩耗アナライザ175、および警報マネージャ180などの摩耗検出コンピュータシステム110の一つ以上の構成要素を格納することができる。メモリ150はまた、摩耗検出コンピュータシステム110の動作を可能にするために、プロセッサ140によって実行可能な追加の構成要素、モジュール、またはその他のコードを格納できる。例えば、メモリ150は、入力/出力関数、ソフトウェアドライバ、オペレーティングシステム、または他の構成要素に関連するコードを含みうる。
一部の実施形態によれば、摩耗検出コンピュータシステム110の態様は、カメラ128内に配置されてもよい。例えば、カメラ128は、プロセッサ140および/またはメモリ150のうちの一つ以上を含みうる。追加的に、または代替的に、摩耗検出コンピュータシステム110の態様は、作業機械100上およびカメラ128の外側に配置されてもよい。例えば、作業機械100およびカメラ128の両方は、一つ以上のプロセッサ140またはメモリ150を含んでもよく、あるいは一つ以上のプロセッサ140またはメモリ150は、完全にカメラ128の外側に配置されてもよいが、作業機械100内に配置されてもよい。
物理的パラメータライブラリ160は、作業機械100、バケット120および/またはGET125に関連する物理的パラメータセットを含みうる。例えば、物理的パラメータライブラリ160は、いくつかの例として、バケット120のサイズ、バケット120の形状、GET125のサイズ、GET125の形状、およびGET125とバケット120との間の空間関係に関連する測定データを含みうる。物理的パラメータライブラリ160はまた、新しいまたは未摩耗状態のGET125のサイズおよび形状に関連するパラメータ、およびGET125が最大摩耗に達したときのサイズおよび形状に関連するパラメータを含みうる。
物理的パラメータライブラリ160はまた、バケット120およびGET125(例えば、バケットツールテンプレート)の組み合わせに関連するテンプレートまたは参照画像を含みうる。例えば、作業機械100については、物理的パラメータライブラリ160に格納されたテンプレートのうちの一つは、バケット120がカメラ128の視野内に位置付けられることが予想されるため、GET125を有するバケット120の画像を含みうる。バケットツールテンプレートは、GET125が摩耗していない(例えば、摩耗していないまたは予想されるエッジ)とき、またはそれらが最大摩耗(例えば、閾値エッジ)に達したときに、可能である。物理的パラメータライブラリ160はまた、GETがいつ交換を必要とする点まで摩耗したかを判定する際に、摩耗アナライザ175を支援するために、GET125の摩耗に関連するその他の情報を含みうる。GET125に関連する摩耗データは、実際の測定(例えば、測定基準または帝国寸法)の形態、またはピクセル値の形態でありうる。
物理的パラメータライブラリ160は、各物理的パラメータセットが、作業機械、バケット、GET、またはこれらの組み合わせに対応する複数の物理的パラメータセットを含んでもよい。運転中、オペレータは、オペレータ制御パネル130を使用して、バケット120およびGET125、または作業機械100に一致する物理的パラメータライブラリ160から物理的パラメータセットを選択しうる。例えば、作業機械100が、モデル番号「6015B」を有する油圧採掘ショベルである場合、オペレータは、オペレータ制御パネル130を使用して、モデル番号「6015B」を入力することができ、摩耗検出コンピュータシステム110は、モデル6015Bの油圧採掘ショベルに対応する物理的パラメータセットを物理的パラメータライブラリ160からメモリ150に読み込むことができる。一部の例では、物理的パラメータライブラリ160で利用可能なテンプレートのリストは、摩耗検出コンピュータシステム110の電源投入またはリセット動作時にディスプレイ133上に表示されてもよく、オペレータは、作業機械100のモデル番号、バケット120のバケットの種類、またはGET125の種類に応じて、作業用リストから物理的パラメータセットの一つを選択してもよい。
いくつかの実施形態では、オペレータは、作業シフトの開始時に、カメラ128の視野129内にバケット120およびGET125を位置付け、摩耗検出コンピュータシステム110にオペレータ制御パネル130上の入力を使用して、バケット120およびGET125の画像を捕捉させうる。次いで、摩耗検出コンピュータシステム110は、バケット120およびGET125を物理的パラメータセットと一致させる画像マッチングプロセスを実行し、一致する物理的パラメータセットに基づいて本明細書に開示される摩耗検出および画像処理プロセスのためにそれ自体を構成しうる。
画像アナライザ170は、カメラ128によって捕捉された画像を分析して、画像内のGET125を識別し、それらの画像の処理されたバージョンに基づいてGET125の摩耗を測定するように構成することができる。例えば、画像アナライザ170は、左補正画像(カメラ128の左画像センサによって捕捉される)および右補正画像(カメラ128の右画像センサによって捕捉される)の形態で、カメラ128から立体画像を受信することができる。画像アナライザ170は、左補正画像および右補正画像上で様々なコンピュータビジョン技術を実行して、GET125に対応するそれらの中の関心領域を識別または判定しうる。
一つの実施形態では、画像アナライザ170は、左補正画像および右補正画像に基づいて、高密度ステレオ視差マップを作成しうる。画像アナライザは、高密度ステレオ視差マップをセグメント化して、関心領域を識別しうる。さらに、画像アナライザ170はまた、高密度ステレオ視差マップに基づいて3D点群を作成してもよく、3D点群をセグメント化して関心領域を識別してもよい。
画像アナライザ170は、関心領域を識別すると、さらに処理して、左補正画像に対応する左エッジデジタル画像および右補正画像に対応する右エッジデジタル画像を作成することができる。画像アナライザ170は、勾配大きさ検索ベースのエッジ検出を採用してもよいが、コンピュータビジョンの分野(例えば、ゼロ交差ベースのエッジ検出技術)内で用いられる他のエッジ検出技術が、左エッジデジタル画像および右エッジデジタル画像を作成するために他の実施形態で採用されうる。
コンピュータビジョン技術に加えて、またはコンピュータビジョン技術の使用の代替として、画像アナライザ170はまた、深層学習または機械学習技術を用いて、カメラ128によって捕捉された左補正画像および右補正画像内の関心領域を識別できる。例えば、画像アナライザ170は、個々のGET、GETのグループ、またはGETとバケットの組み合わせが標識化されている画像のコーパスに基づいて関心領域を識別するように訓練されたニューラルネットワークを用いる、深層学習GET検出アルゴリズムを使用しうる。画像アナライザ170はまた、画像内でGETを見つけるように訓練されたニューラルネットワークを用いる、深層学習GET位置アルゴリズムを使用しうる。GET位置アルゴリズムは、こうした個々のGETが標識化されている画像のコーパスを使用して訓練されている。GET位置アルゴリズムは、画像内の個々のGETを識別すると、GETに対して対応する位置を出力する。例えば、GET位置アルゴリズムは、GETの位置に関連するピクセル位置またはバウンディングボックス出力を出力することができる。
いくつかの例では、画像アナライザ170は、捕捉された画像内のGET125の予想される位置を使用することによって、GETのエッジ推定値を精密化してもよく、および/または個々のGET125を識別してもよい。例えば、画像アナライザ170は、使用中のバケット120およびGET125の種類に対応する物理的パラメータライブラリ160に格納された物理的パラメータセットに基づいて、バケット120に対するGET125の予想される位置を知ってもよい。この情報を使用して、画像アナライザ170は、選択された画像内の予想される位置に移動し、歯に近接したピクセル領域を捕捉することができる。次いで、ピクセル領域を使用して、畳み込みフィルタの適用、セグメンテーション分析、エッジ検出、またはピクセル領域内のピクセル強度/暗さ解析などのコンピュータビジョン技術に基づいて、歯をさらに識別することができる。いくつかの実施形態では、画像アナライザ170は、個々の歯のテンプレートを使用して、ピクセル領域に適用し、コンピュータビジョン技術を使用して歯の位置をさらに精密化しうる。画像アナライザ170は、動的プログラミング技術を使用してエッジをさらに精密化しうる。動的プログラミング技術は、エッジの強度、エッジが高密度ステレオ視差マップ内の穴または不確かさ領域に近いかどうか、または他のエッジ検出最適化技術に基づいてなめらかにすることを含みうる。画像アナライザ170はまた、GET位置アルゴリズムの出力を使用して、GETの位置を判定する際の信頼度を得て、GET位置アルゴリズムの出力に基づいてエッジ推定値をさらに精密化することができる。
画像アナライザ170はまた、摩耗アナライザ175がGET125における摩耗を判定することができるように、摩耗アナライザ175に設けられる、低密度ステレオ視差を作成しうる。いくつかの実施形態では、画像アナライザ170は、左エッジデジタル画像(左補正画像と関連付けられる)と右エッジデジタル画像(右補正画像と関連付けられる)との間に低密度ステレオ視差を作成したが、この視差は摩耗アナライザ175によって使用される。別の方法として、低密度ステレオ視差は、第一の関心領域画像(左補正画像と関連付けられる)から計算されてもよく、第二の関心領域画像(右補正画像と関連付けられる)から計算されてもよく、画像アナライザ170は、低密度ステレオ視差画像からエッジを検出してもよい。
摩耗アナライザ175は、摩耗のために画像アナライザ170によって生成される低密度ステレオ視差を分析するように構成できる。例えば、バケット120およびGET125に関連付けられた物理的パラメータセットは、カメラ128の予想される画像捕捉に基づいて較正された、非摩耗GET125または非摩耗GET125のセットに関連する予想されるデータを含みうる。予想されるデータは、ピクセル、実際の測定値、または非摩耗GETに関連するエッジ画像の形態であってもよい。摩耗アナライザ175が低密度ステレオ視差を受信すると、作業機械100が使用するGET125に関連する測定データを判定することができる。次に、判定された測定データを、GET125の非摩耗バージョンに対応する予想されるデータと比較して、GET125についての摩耗レベルまたは喪失を判定してもよい。
一部の実施形態では、低密度ステレオ視差に関連するピクセル数を使用して、GETの摩耗または喪失を測定することができる。ピクセル数は、いくつかの例のように、領域(例えば、GETの合計ピクセル)、ピクセルでのGETの高さ、ピクセルでのGETの幅、GETの高さおよび幅の合計を含みうる。ピクセル数を判定する方法は、GETの形状およびスタイルに応じて変化しうる。例えば、幅よりもはるかに長いGETでは、高さピクセル数が使用されてもよく、長さよりもはるかに幅広いGETでは、幅ピクセル数が使用されてもよい。ピクセル数を判定するための様々な方法は、本開示の趣旨および範囲から逸脱することなく使用されうる。
いくつかの実施形態では、摩耗アナライザ175は、低密度ステレオ視差から抽出された判定された測定データと、非摩耗GET125に対応する予想されるデータとの間の類似性スコアを計算できる。類似性スコアは、GET125の判定された測定データが、物理的パラメータセットの予想されるデータにどの程度よく一致するかの尺度を反映することができる。例えば、類似性スコアは、類似性を検出するための、和集合の交点またはジャッカードインデックス法の使用を含みうる。いくつかの実施形態では、類似性を検出するダイス係数またはF1スコア方法を利用して、類似性スコアを判定することができる。類似性スコアはまた、低密度ステレオ視差の何ピクセルが予想されるエッジ画像とオーバーラップするかの割合を反映する値を含むことができる。いくつかの実施形態では、類似性スコアは、ゼロから100まで計測または正規化されてもよい。
類似性スコアは、GET125の摩耗を表示することができる。例えば、低スコア(例えば、0~20の範囲)は、GET125の一つが壊れたか、または歯の欠損を示すことを見落としていることを示しうる。高スコア(例えば、範囲80~100)は、歯が良好な健康状態にあり、交換を必要としないことを示しうる。低スコアと高スコアとの間のスコアは、歯の摩耗レベルを提供し得、高いスコアは、低いスコアよりも歯の置換のリードタイムがより長いことを示す。
いくつかの実施形態では、摩耗アナライザ175は、経時的にGET125に関連する測定データを収集し、収集された測定データを使用して、GET125の摩耗レベルおよびGET125の摩耗傾向を判定することができる。例えば、作業機械100は、作業のために数日間、その作業現場で動作することができる。作業機械100が作業中に材料を移動する際に、カメラ128は、摩耗検出コンピュータシステム110にステレオ画像のバケット120およびGET125を提供し、画像アナライザ170はGET125に対する低密度ステレオ視差を生成する。摩耗アナライザ175は、作業の期間にわたり、GET125に関連付けられた測定データ(例えば、ピクセル数、測定基準測定値、帝国測定値)を、いくつかのインスタンスの時間でマッピングすることができる。バケット120およびGET125は、作業現場において材料と係合するため、GET125は摩耗によりサイズが小さくなることが予想される。したがって、GET125に関連付けられた測定データは、同様に経時的に減少し、経時的なピクセル数は、摩耗傾向を反映する。摩耗アナライザ172は、特定の時点での摩耗傾向を使用して、特定の時点でのGET125の摩耗レベルを判定することができる。GET125に対する摩耗レベルは、GET125の交換が必要であることを示してもよく、またはGET125のうちの一つ以上の喪失を示してもよい。一部の実施形態では、GET125に関連付けられた測定データは、メモリ150に格納され、複数の作業および複数の作業現場に適用されてもよく、摩耗傾向は、GET125の寿命に適用することができる。こうした実施形態では、摩耗アナライザ175によって捕捉されたGET125に関連付けられたピクセル数は、バケット120またはGET125が交換された時にリセットされてもよく、摩耗アナライザ175は、ゼロ時点からGET125のピクセル数の収集を再開することができる。
摩耗アナライザ175は、経時的に測定されたGET125の測定データに基づいて摩耗傾向を判定するため、摩耗アナライザ175はまた、GET125がいつ交換を必要とするかの予測を形成することができる。例えば、摩耗アナライザ175が、GET125に関連付けられた測定データが、GET125が10作業時間あたり1%の寿命を失うことを示し(10作業時間あたり1%測定データが減少するので)、GET125が800作業時間の間使用されたと判定する場合、摩耗アナライザ175は、GET125を200時間以内に交換する必要があると判定しうる。
いくつかの実施形態では、摩耗検出コンピュータシステム110は、警報マネージャ180を含みうる。警報マネージャ180は、摩耗アナライザ175と通信することができ、摩耗アナライザ175によって判定される摩耗傾向および摩耗レベルを監視しうる。警報マネージャ180は、摩耗アナライザ175によって判定された情報に基づいて、オペレータ制御パネル130にメッセージ警報を提供できる。例えば、摩耗レベルが摩耗閾値に達すると、警報マネージャ180は、オペレータ制御パネル130のディスプレイ133上に示される警報を生成しうる。閾値は、極度のGET摩耗、または場合によっては完全なGET喪失を示す値に対応することができる。警報は、一つ以上のGET125の交換が必要であることを、作業機械100のオペレータに表示しうる。摩耗閾値は、実施形態によって異なり得、GET125の種類およびGET125が係合する作業現場における材料に依存しうる。
警報マネージャ180はまた、GET125が将来何らかの時点で交換を必要とする可能性がある、例えば、GET125が2週間以内に交換する必要がある可能性があるという警報を提供することができる。交換警報は、GET125の摩耗傾向予測に関連する情報を含みうる。例えば、交換警報は、摩耗傾向(例えば、1作業日当たりGET125の摩耗2%)、歯が使用中である時間、またはGET125が使用データに基づいて摩耗閾値に到達すると予想される日付または時間の定量化を含むことができる。
一部の実施形態では、警報マネージャ180は、摩耗アナライザ175によって判定される摩耗傾向を監視し、ディスプレイ133に摩耗レベル値を提供し、作業機械100のオペレータに現在の摩耗レベルを知らせることができる。例えば、摩耗傾向が、GET125が60%摩耗していることを示す場合、摩耗傾向に基づいて、警告マネージャ180は、GET125が交換する必要がある前に寿命の40%が残っていることを示すことができる。ディスプレイ133はまた、歯が破損したことをオペレータに通知し、歯の喪失(例えば、GET125のうちの一つ以上が20%未満の寿命を有する場合)を示すことができる。
摩耗検出コンピュータシステム110は、広範囲の摩耗のために、GET125の交換が必要になったとき、または破損したとき、作業機械100のオペレータに知らせられる。以下でより詳細に説明する摩耗検出コンピュータシステム110によって用いられるプロセスは、5mm未満のスケールでGETの摩耗の正確かつ精密な測定値を提供して、オペレータが、極度のGET摩耗または喪失の場合に作業機械100の動作を停止することができるようにする。摩耗検出コンピュータシステム110によって展開されるプロセスおよび技術は、様々な作業機械で使用されうる。
例えば、図2は、ホイールローダ作業機械201が動作している例示的な環境200の概略側面図を示す図である。ホイールローダ作業機械201は、バケット220および一つ以上のGET225を含みうる。図2に示すように、カメラ228は、GET225およびバケット220が、掘り出しダンプサイクルのダンプ端部の間に、カメラ228の視野229内にあるように位置付けられる。結果として、カメラ228は、こうした実施形態で、バケット220が、掘り出しダンプサイクルのダンプ端で静止している時に、画像を捕捉するように構成されうる。
別の例として、図3は、油圧採掘ショベル作業機械301が動作している例示的な環境300の概略側面図を示す図である。油圧採掘ショベル作業機械301は、バケット320および一つ以上のGET325を含みうる。ホイールローダ作業機械201に対するカメラ228の位置とは対照的に、カメラ328は、GET325が、掘り出しダンプサイクルの掘り出し端部の間カメラ328の視野329内にあるように位置付けられる。カメラ328は、こうした実施形態で、バケット320が、掘り出しダンプサイクルの掘り出し端で静止しているときに画像を捕捉するように構成されうる。
さらに別の例では、図4は、電気ロープショベル作業機械401が動作している例示的な環境400の概略側面図を示す図である。電気ロープショベル作業機械401は、バケット420、一つ以上のGET425、およびカメラ428を含みうる。図4に示すように、GET425は、掘り出しダンプサイクルの中点でカメラ428の視野429内であってもよいが、バケット420がカメラ428に比較的近い時である。こうした実施形態では、カメラ428は、バケット420がカメラ428の視野429に関連する位置の範囲に入る時に、画像を捕捉するように構成されうる。
図5は、コンピュータビジョン技術を使用した関心領域検出プロセスのための画像データの例示的な流れを示す、画像データフロー図500を示す。画像データフロー図500は、GET125に関連するカメラ128によって捕捉された画像内の関心領域を検出する際に、画像アナライザ170によって受信、処理、および生成される画像を含む。画像データフロー図500は、カメラ128によって捕捉された左画像510および右画像520を含む。左画像510は、カメラ128の左画像センサによって捕捉された補正画像であってもよい。右画像520は、カメラ128の右画像センサによって捕捉された画像を補正することができる。左画像510および右画像520の両方は、バケット120およびGET125の画像を含む。
画像アナライザ170は、左画像510および右画像520を処理して、視差マップ530を作成してもよい。視差マップ530は、左画像510の各ピクセルと右画像520の各ピクセルとの間の視差を示す高密度ステレオ視差マップとすることができる。物理的パラメータライブラリ160から取得され、バケット120、GET125および/または作業機械100に関連付けられた、視差マップ530および物理的パラメータセット535を使用して、画像アナライザ170は、3D点群540を構築できる。3D点群540は、三次元で左画像510と右画像520との間の視差を示す。次に、画像アナライザ170は、3D点群540上でルーチンセグメンテーション分析を実行し、左画像510に対応する第一の関心領域550と、右画像520に対応する第二の関心領域560とを識別してもよい。
図6は、深層学習技術を使用した関心領域検出プロセスのための画像データの例示的な流れを示す、画像データフロー図600を示す。上述の画像データフロー図500と同様に、関心領域検出プロセスの出力は、第一の関心領域550およびGET125に対応する第二の関心領域560である。しかし、画像データフロー図500とは異なり、画像アナライザ170は、深層学習技術を利用して、第一の関心領域550および第二の関心領域560を検出する。
画像データフロー図600は、カメラ128によって捕捉された左画像510および右画像520を含む。左画像510は、カメラ128の左画像センサによって捕捉された補正画像であってもよい。右画像520は、カメラ128の右画像センサによって捕捉された画像を補正することができる。左画像510および右画像520の両方は、バケット120およびGET125の画像を含む。
画像アナライザ170は、左画像510に深層学習GET検出アルゴリズムを適用しうる。深層学習GET検出アルゴリズムは、GETが個別に識別され、および/またはGETのグループが個別に識別され、および標識化されている画像データのコーパスで訓練されたニューラルネットワークを利用しうる。画像アナライザ170が、深層学習GET検出アルゴリズムを左画像510に適用するとき、個々のGET125の画像を含む複数の個々のGETバウンディングボックス610を識別しうる。いくつかの実施形態では、画像アナライザ170はまた、個々のGETバウンディングボックス610を包含するGETグループバウンディングボックス615を識別してもよい。同様に、画像アナライザ170が、深層学習GET検出アルゴリズムを右画像520に適用するとき、個々のGET125の画像を含む複数の個々のGETバウンディングボックス620を識別しうる。いくつかの実施形態では、画像アナライザ170はまた、個々のGETバウンディングボックス620を包含する右画像520用のGETグループバウンディングボックス625を識別してもよい。画像アナライザ170は、GETグループバウンディングボックス615を識別すると、そのピクセルを第一の関心領域550として抽出しうる。画像アナライザ170はまた、第二の関心領域560として、GETグループバウンディングボックス625のピクセルを抽出してもよい。
図7は、コンピュータビジョン技術を使用した摩耗検出プロセスのための画像データの例示的な流れを示す、画像データフロー図700を示す。画像データフロー図700は、GET125の摩耗または喪失を検出するために摩耗アナライザ175に最終的に提供される出力を生成する際に、画像アナライザ170によって受信、処理、および生成される画像を含む。一部の実施形態において、生成された出力は、低密度ステレオ画像の形態となる。
画像データフロー図700は、第一の関心領域550および第二の関心領域560を含む。第一の関心領域550および第二の関心領域560の両方は、図5または図6のいずれかに関して上述したように画像アナライザ170によって生成されていてもよく、すなわち、画像アナライザ170は、コンピュータビジョン技術または深層学習技術のいずれかを使用して、第一の関心領域550および第二の関心領域560を生成していてもよい。一部の実施形態では、第一の関心領域550および第二の関心領域560は、コンピュータビジョン技術および深層学習技術の組み合わせを使用して生成されていてもよい。
画像データフロー図700はまた、精密化されていない左エッジデジタル画像710を含む。画像アナライザ170は、コンピュータビジョンエッジ検出技術を第一の関心領域550に適用することによって、精密化されていない左エッジデジタル画像710を生成しうる。コンピュータビジョンエッジ検出技術は、勾配大きさエッジ検出技術などの検索ベースのエッジ検出技術を含みうる。コンピュータビジョンエッジ検出技術はまた、ゼロ交差ベースの技術を含みうる。画像アナライザ170はまた、ガウス平滑化などの精密化されていない左エッジデジタル画像710を生成する前に、前処理ステップを実行してもよい。いくつかの実施形態では、画像アナライザ170は、コンピュータビジョンの技術分野で、Cannyエッジ検出器または他の周知のエッジ検出器を利用してもよい。同様に、画像アナライザ170は、類似のコンピュータビジョンエッジ技術を使用して、精密化されていない右エッジデジタル画像720を生成しうる。
いくつかの実施形態では、画像アナライザ170は、精密化されていない左エッジデジタル画像710および精密化されていない右エッジデジタル画像720の誤差を両方に動的プログラミングを実行することによって、低減することができる。動的プログラミングには、誤差を低減するための一連の最適化ルーチンへの物理的パラメータセット535の適用が含まれうる。最適化ルーチンは、検出されたエッジの強度を評価すること、検出されたエッジが、視差マップ530の穴もしくは不確かさ領域に近いか、またはそれらに含まれるか、あるいは物理的パラメータセット535に基づいてエッジが予想されうる場所を分析することを含むことができる。次に、画像アナライザ170は、動的プログラミングに基づいて、精密化された左エッジデジタル画像740および精密化された右エッジデジタル画像750を出力しうる。次に、画像アナライザ170は、精密化された左エッジデジタル画像740と精密化された右エッジデジタル画像750との間の低密度ステレオ視差を計算することによって、低密度ステレオ視差760を作成しうる。次に、画像アナライザ170は、開示された実施形態と一致するGET125の摩耗喪失を検出するために、摩耗アナライザ175に低密度ステレオ視差760を提供しうる。
図8は、深層学習技術を使用した摩耗検出プロセスのための画像データの例示的な流れを示す、画像データフロー図800を示す。画像データフロー図800は、GET125の摩耗または喪失を検出するために摩耗アナライザ175に最終的に提供される出力を生成する際に、画像アナライザ170によって受信、処理、および生成される画像を含む。生成された出力は、低密度ステレオ画像の形態であってもよく、またはGET125に対応する位置情報の形態であってもよい。画像アナライザ170は、いずれかの形態で生成された出力を使用して、図8に記載のプロセスから判定されたエッジに信頼度を構築することができる。
画像データフロー図800は、第一の関心領域550および第二の関心領域560を含む。第一の関心領域550および第二の関心領域560の両方は、図5または図6のいずれかに関して上述したように、画像アナライザ170によって生成されていてもよく、すなわち、画像アナライザ170は、コンピュータビジョン技術または深層学習技術のいずれかを使用して、第一の関心領域550および第二の関心領域を生成していてもよい。一部の実施形態では、第一の関心領域550および第二の関心領域560は、コンピュータビジョン技術および深層学習技術の組み合わせを使用して生成されていてもよい。
画像データフロー図800はまた、左エッジデジタル画像810および右エッジデジタル画像820を含む。画像アナライザ170は、深層学習技術を使用して、左エッジデジタル画像810および右エッジデジタル画像820を生成しうる。例えば、画像アナライザ170は、深層学習GET位置アルゴリズムを使用して、左エッジデジタル画像810および右エッジデジタル画像820を生成しうる。深層学習GET位置アルゴリズムは、GET125のグループのエッジが訓練目的のためにどこに標識化され、識別されたかを識別する画像のコーパスを使用して訓練されたニューラルネットワークを利用しうる。いくつかの実施形態では、画像アナライザ170は、GET125に対応するエッジの位置を決定する。追加で、または別の方法として、画像アナライザ170は、個々のGET125の位置を判定する。
いくつかの実施形態では、画像アナライザ170は、左エッジデジタル画像810および右エッジデジタル画像820を生成した後、関心領域に対するどちらか、または両方のエッジの位置を使用して、画像データフロー図に関して上述したものなどの、コンピュータビジョン技術を使用して作成されたエッジに信頼度を構築しうる。一部の例では、画像アナライザ170は、深層学習GET位置アルゴリズムの出力を有するコンピュータビジョン技術を使用して、それが作成するエッジ画像をさらに精密化してもよく、またはGET位置アルゴリズムの出力が、従来のコンピュータビジョン技術によって生成されるエッジ画像と著しく異なる例では、摩耗検出処理のための画像を完全に無視してもよい。
いくつかの実施形態では、画像アナライザ170は、左エッジデジタル画像810と右エッジデジタル画像820との間の低密度ステレオ視差を計算することによって、低密度ステレオ視差760を作成する。次に、画像アナライザ170は、開示された実施形態と一致するGET125の摩耗喪失を検出するために、摩耗アナライザ175に低密度ステレオ視差760を提供しうる。
図9は、GET125の摩耗を検出するためにコンピュータビジョン技術を用いる、例示的なコンピュータビジョン摩耗検出プロセス900を表すフローチャートを示す。いくつかの実施形態では、プロセス900は、画像アナライザ170および摩耗アナライザ175によって実施されうる。プロセス900は、概して図5および7の画像データフローに従い、これらの図の説明と一致して解釈されるべきである。以下の考察は、画像アナライザ170または摩耗アナライザ175によって実施されるプロセス900の態様を説明するが、摩耗検出コンピュータシステム110の他の構成要素は、本開示の趣旨および範囲から逸脱することなく、プロセス900の一つ以上のブロックを実行しうる。
プロセス900は、画像アナライザ170が、バケット120およびGET125の左画像および右画像を受信するブロック910で始まる。左画像は、カメラ128の左画像センサによって捕捉されてもよく、右画像は、カメラ128の右画像センサによって捕捉されてもよい。左画像および右画像の両方は、補正された画像であってもよい。ブロック920で、画像アナライザは、左画像のピクセルと右画像のピクセルとの間の視差に基づいて、高密度ステレオ視差マップを生成しうる。生成された高密度ステレオ視差マップおよびバケット120およびGET125に関連付けられた物理的パラメータセットを使用して、画像アナライザ170は、ブロック925で、バケット120およびGET125の3D画像を表す3D点群を生成しうる。3D点群から、画像アナライザ170は、ブロック940で、左画像と関連付けられた第一の関心領域、および右画像と関連付けられた第二の関心領域を識別しうる。上述のように、これは、バケット120およびGET125に関連付けられた物理的パラメータセットからの情報を使用して、3D点群上でセグメンテーション分析を実行することによって達成することができる。第一の関心領域および第二の関心領域の両方が、GET125の画像を含む。
ブロック950で、画像アナライザ170は、第一の関心領域と関連付けられた左エッジデジタル画像、および第二の関心領域と関連付けられた右エッジデジタル画像を生成しうる。左エッジデジタル画像および右エッジデジタル画像は、開示された実施形態と一致するコンピュータビジョンエッジ検出技術を使用して生成されうる。ブロック955で、画像アナライザ170は、動的プログラミング技術およびバケット120およびGET125に関連付けられた物理的パラメータセットを使用して、左エッジデジタル画像および右エッジデジタル画像を精密化しうる。次に、画像アナライザ170は、ブロック970での右エッジデジタル画像の左エッジデジタル画像に基づいて、低密度ステレオ視差を判定しうる。ブロック980で、摩耗アナライザ175は、図1に関して上述した技術を使用してGET125の一つ以上の摩耗レベルまたは喪失を判定しうる。
図10は、GET125の摩耗を検出するために、深層学習または機械学習技術を用いる、例示的な深層学習摩耗検出プロセス1000を表すフローチャートを示す。いくつかの実施形態では、プロセス1000は、画像アナライザ170および摩耗アナライザ175によって実行されうる。プロセス1000は、概して図6および8に関して上述したプロセスに従い、これらの図の説明と一致して解釈されるべきである。以下の考察は、画像アナライザ170または摩耗アナライザ175によって実行されるプロセス1000の態様を説明するが、摩耗検出コンピュータシステム110の他の構成要素は、本開示の趣旨および範囲から逸脱することなく、プロセス1000の一つ以上のブロックを実行しうる。
ブロック1010で、画像アナライザ170は、バケット120およびGET125のステレオ画像を受信する。ステレオ画像は、カメラ128の左画像センサによって捕捉された左画像と、カメラ128の右画像センサによって捕捉された右画像とを含みうる。ステレオ画像はまた、カメラ128のカラー画像センサによって捕捉されたカラー画像を含みうる。画像アナライザ170は、ブロック1030で深層学習GET検出アルゴリズムを用いて左画像、右画像、およびカラー画像を使用して、左画像に対応する第一の関心領域および右画像に対応する第二の関心領域を識別しうる。カラー画像の使用は、特定の実施形態では、深層学習GET検出アルゴリズムの性能を向上させることができる。
ブロック1060で、画像アナライザ170は、深層学習GET位置アルゴリズムを使用して、第一の関心領域または第二の関心領域内にGETを見つける。深層学習GET位置アルゴリズムは、GETが画像内で標識化されている画像のコーパスを使用して訓練されたニューラルネットワークを含みうる。ラベルには、個々のGETまたはGETのグループのラベルを含めることができる。一部の実施形態では、深層学習GETアルゴリズムは、デジタル化された関心領域をニューラルネットワークへの入力として適用することによって、第一の関心領域(左画像に対応する)または第二の関心領域(右画像に対応する)を分析し、ニューラルネットワークの出力は、関心領域内のGETのピクセル位置、または関心領域内のGETの位置に関連するバウンディングボックスでありうる。一部の実施形態では、深層学習GET位置アルゴリズムは、第一の関心領域および第二の関心領域の両方内のGETの位置を検出してもよく、一方で、他の領域では、第一の関心領域または第二の関心領域のうちの一方を使用してもよい。深層学習GET位置アルゴリズムが、第一の関心領域、第二の関心領域、またはその両方内のGETの位置を検出するかどうかは、実装形態によって異なり得、GETの種類、バケットの種類、または作業機械の種類によって異なりうる。
いくつかの実施形態では、ブロック1060で、深層学習GET位置アルゴリズムは、GETに対応するエッジ画像を出力する。エッジ画像(例えば、左エッジデジタル画像810、右エッジデジタル画像820)は、第一の関心領域または第二の関心領域のいずれか内のGETの輪郭に対応してもよい。こうした実施形態では、深層学習GET位置アルゴリズムは、GETまたはGETのエッジが標識化されているバケットに取り付けられたGETを含む画像のコーパスを使用して訓練されたニューラルネットワークを含みうる。深層学習GETアルゴリズムは、デジタル化された関心領域をニューラルネットワークへの入力として適用することによって、第一の関心領域(左画像に対応する)または第二の関心領域(右画像に対応する)を分析し、ニューラルネットワークの出力は、第一の関心領域に対応する左エッジデジタル画像および第二の関心領域に対応する右エッジデジタル画像を含む。
ブロック1070で、画像アナライザ170は、低密度ステレオ視差を判定することができる。深層学習GET位置アルゴリズムが、ブロック1060で左エッジデジタル画像および右エッジデジタル画像を出力する実施形態では、画像アナライザ170は、右エッジデジタル画像における左エッジデジタル画像間の低密度ステレオ視差を判定しうる。深層学習GET位置アルゴリズムが、第一の関心領域、第二の関心領域、またはその両方内のGETの位置を出力する実施形態では、画像アナライザ170は、コンピュータビジョン技術を使用して低密度ステレオ視差を判定することができ(例えば、プロセス900のブロック970に関して上述したように)、深層学習GET位置アルゴリズムの出力を使用して、信頼度を構築するか、またはコンピュータビジョン技術によって生成される左エッジデジタル画像および右エッジデジタル画像の精度を検証することができる。
ブロック1080で、摩耗アナライザ175は、図1に関して上述した技術を使用してGET125の一つ以上の摩耗レベルまたは喪失を判定しうる。
図11は、深層学習または機械学習技術の組み合わせを利用してGET125の摩耗を検出する、例示的なハイブリッド摩耗検出プロセス1100を表すフローチャートを示す。いくつかの実施形態では、プロセス1100は、画像アナライザ170および摩耗アナライザ175によって実行されうる。以下の考察は、画像アナライザ170および摩耗アナライザ175によって実行されるプロセス1100の態様を説明するが、摩耗検出コンピュータシステム110の他の構成要素は、本開示の趣旨および範囲から逸脱することなく、プロセス1100の一つ以上のブロックを実行しうる。
一部の実施形態によれば、プロセス1100の特定のブロックは、関心領域の識別の性能および低密度ステレオ視差の判定を改善するために、並列でおよび組み合わされて実行される。プロセス1100で示されるブロックの多くは、上述のプロセス900および1000のブロックに類似しており、同様の動作を行うブロックは、同じ最後の二つの数字を有する。例えば、プロセス1100のブロック1110は、プロセス900のブロック910およびプロセス1000のブロック1010と機能的に類似している。
ブロック1110で、画像アナライザ170は、バケット120およびGET125のステレオ画像を受信する。次に、画像アナライザ170は、深層学習技術を使用して、動作の第二セット(ブロック1130)と並列にコンピュータビジョン技術を使用して、動作の一セット(ブロック1120、1125)を実行し、ステレオ画像の左画像に関連付けられた第一の関心領域およびステレオ画像の右画像に関連付けられた第二の関心領域を識別する。したがって、ブロック1120で、画像アナライザ170は、プロセス900のブロック920に類似したステレオ画像に基づいて、高密度ステレオ視差マップを生成する。ブロック1125で、画像アナライザ170は、プロセス900のブロック925に類似した3D点群を生成する。ブロック1130で、画像アナライザ170は、プロセス1000のブロック1030に類似したステレオ画像に基づいて、深層学習GET検出アルゴリズムを適用する。
次いで、プロセス1100は、ここで、画像アナライザ170が、ブロック1120および1125の結果をブロック1130の結果と融合するブロック1135に継続する。画像アナライザ170は、動的プログラミング技術を使用して、左画像に対応する最適化された第一の関心領域および右画像に対応する最適化された第二の関心領域を生成することができる。例えば、画像アナライザ170は、バケット120とGET125との間の空間関係を、3D点群および深層学習GET検出アルゴリズムによって出力される情報と組み合わせて記述する物理的パラメータセットを利用して、関心領域のより正確な抽出を判定してもよい。融合結果を使用して、画像アナライザ170は、ブロック1140で第一の関心領域および第二の関心領域を識別しうる。
次いで、プロセス1100は、コンピュータビジョン技術および深層学習技術の両方を使用して、低密度ステレオ視差生成を行う。したがって、ブロック1150で、画像アナライザ170は、プロセス900のブロック950に関して上述したものと同様のコンピュータビジョンエッジ検出技術を使用して、左エッジデジタル画像および右エッジデジタル画像を生成する。ブロック1155で、左エッジデジタル画像および右エッジデジタル画像は、プロセス900のブロック955に関して上述したように精密化される。ブロック1160で、画像アナライザ170は、プロセス1000のブロック1060に関して上述したものと類似した様式で、深層学習GET位置アルゴリズムを使用して、第一の関心領域または第二の関心領域を有するGETを見つける。
ブロック1170で、画像アナライザ170は、ブロック1155で判定された精密化された左エッジデジタル画像および精密化された右エッジデジタル画像、ならびにGET125の形状およびサイズに対応する低密度ステレオ視差1170を判定するブロック1160の出力を使用する。いくつかの実施形態では、画像アナライザ170は、ブロック1170で動作を実施する際に、バケット120およびGET125に関連付けられた物理的パラメータセットを使用して、コンピュータビジョン技術(ブロック1150および1155)と深層学習技術(ブロック1160)との間の情報を融合してもよい。例えば、画像アナライザ170は、GETの予想されるサイズおよび形状、GET125と係合するバケット120の側面に対するGET125の相対的位置決め、精密化された左エッジデジタル画像および精密化された右エッジデジタル画像の滑らかさまたは連続性(ブロック1155から)、第一の関心領域または第二の関心領域内のGETの位置(ブロック1160から)、および/または左エッジデジタル画像および右エッジデジタル画像(ブロック1160から)の滑らかさまたは連続性を利用して、最適化分析を実行し、低密度ステレオ視差を判定することができる。ブロック1180で、摩耗アナライザ175は、図1に関して上述した技術を使用してGET125の一つ以上の摩耗レベルまたは喪失を判定しうる。
いくつかの実施形態では、プロセス1100は、コンピュータビジョン技術または深層学習技術の様々な組み合わせを含むように流れてもよい。例えば、プロセス1100は、ブロック1110、1120、1125、1140、1160、1170、1180(すなわち、ブロック1130、1135、1150、および1155を含まない)のプロセスフローに従ってもよい。別の例として、プロセス1100は、ブロック1110、1130、1140、1150、1155、1170、1180(すなわち、ブロック1120、1125、1135、および1160を含まない)のプロセスフローに従ってもよい。さらに、プロセス1100は、コンピュータビジョン技術を使用して関心領域を識別し(ブロック1120および1125)、深層学習技術を使用して、左エッジデジタル画像および右エッジデジタル画像を識別する(ブロック1160)。逆に、プロセス1100は、深層学習技術を使用して、関心領域(ブロック1130)を識別し、コンピュータビジョン技術(ブロック1150および1155)を使用して、左エッジデジタル画像および右エッジデジタル画像を識別しうる。
上述の説明全体を通して、摩耗検出コンピュータシステム110の特定の構成要素を説明し、特定の動作を行った。しかし、摩耗検出コンピュータシステム110のいくつかの実施形態では、他の構成要素は、上述のもの以外のこれらの動作を実行しうる。さらに、摩耗検出コンピュータシステム110は、例示的実施形態で上述したものよりも、追加のまたはより少ない構成要素を含んでもよい。当業者であれば、摩耗検出コンピュータシステム110は、上記に開示した特定の実施形態に限定されなくてもよいことを認識するであろう。
本明細書に記載のシステムおよび方法は、土壌、岩石、鉱物などの材料の採掘、移動、成形、輪郭形成、および/または除去を行っている、作業現場における作業機械の動作に関連して使用することができる。これらの作業機械には、作業現場にある間に材料をすくい、掘り出し、または捨てるために使用するバケットを装備できる。バケットは、動作中の材料のほぐしを支援するために、一連の接地係合ツール(GET)を装備することができる。作業機械はまた、本明細書に記載の例に従って摩耗検出の方法を実施するように構成されたプロセッサおよびメモリを有するシステムを含みうる。システムおよび方法は、GETなどの作業機械構成要素の摩耗または喪失を検出することができ、その結果、こうした作業機械のオペレータは、下流処理機器を損傷する故障が発生する前に、是正措置を取ることができる。
一部の例では、システムおよび方法は、作業機械に関連付けられたステレオカメラから、摩耗検出処理のための作業機械の構成要素のステレオ画像を捕捉することができる。ステレオ画像は、左側画像および右側画像の形態で捕捉することができる。
一部の例では、システムおよび方法は、コンピュータビジョン技術を使用して、高密度ステレオ視差マップを作成することによって、左側画像および右側画像を処理しうる。高密度ステレオ視差マップは、GETに関連する画像内の関心領域を識別するようにセグメント化されうる。システムおよび方法は、GETの形状を概説する左エッジデジタル画像および右エッジデジタル画像を識別するために、コンピュータビジョン技術、例えば、勾配大きさエッジ検出技術を使用して、関心領域をさらに処理しうる。次いで、システムおよび方法は、左側画像および右側画像内に捕捉されたGETを測定することができる、左エッジデジタル画像および右エッジデジタル画像を使用して、低密度ステレオ視差を判定することができる。これらの測定値に基づいて、GET摩耗、または喪失を判定することができる。
GETのサイズを判定するための低密度ステレオ視差の使用は、5mm未満の精度で摩耗を測定することができるため、GET摩耗測定の精度を高めることができる。したがって、上述の技術を使用するシステムおよび方法は、約センチメートルまたは数十センチメートルの精度でのみ摩耗を検出することができる、低密度ステレオ視差を使用しないシステムよりも有利である。より正確な摩耗検出は、下流の処理機械に損傷を引き起こす可能性のある壊滅的なGETの喪失または摩耗の可能性を低減することができる。
一部の例では、システムおよび方法は、深層学習技術を使用して、左側画像および右側画像を処理しうる。システムおよび方法は、GETに対応する左側画像および右側画像内の関心領域を識別するように訓練されたニューラルネットワークを使用する、深層学習GET検出アルゴリズムを利用しうる。関心領域が検出されると、左側画像に対応する左エッジデジタル画像と右側画像に対応する右エッジデジタル画像との間の低密度ステレオ視差が判定されうる。上述のように、低密度ステレオ視差の使用は、摩耗測定の精度を増加させる。
他の例では、システムおよび方法は、コンピュータビジョンおよび深層学習技術の両方を使用して、また一部の例では、これらの技術を同時に適用して、左側画像および右側画像を処理しうる。こうした例では、システムおよび方法は、各技術の出力を融合して、GETの最良の事例測定を見つけることによって、GET測定精度を増加させることができる。融合された出力を使用することで、GET測定の精度は、低密度ステレオ視差を利用しない、またはコンピュータビジョンと機械学習技術の両方を使用しない従来のシステムよりも高めることができる。
本開示の態様は、上記の例を参照して特に示され、記述されてきたが、開示された内容の趣旨および範囲から逸脱することなく、様々な追加の実施形態が、開示された装置、システムおよび方法の改変によって意図されうることが当業者には理解されるであろう。かかる実施形態は、特許請求の範囲およびその任意の均等物に基づき決定される本開示の範囲内に収まることが理解されるべきである。
Claims (10)
- コンピュータ実施される方法であって、
作業機械(100)のバケット(120)であって、前記バケットが少なくとも一つの接地係合ツール(GET)(125)を有する、バケット(120)の左画像(510)および右画像(520)を、前記作業機械100と関連付けられた立体カメラ(128)から受信することであって、前記左画像および前記右画像がデジタルである、受信することと、
前記左画像から第一の関心領域(550)であって、前記第一の関心領域が前記少なくとも一つのGETに対応する、第一の関心領域を識別することと、
前記右画像から第二の関心領域(560)であって、前記第二の関心領域が前記少なくとも一つのGETに対応する、第二の関心領域を識別することと、
前記第一の関心領域に対応する左エッジデジタル画像(740)を生成することと、
前記第二の関心領域に対応する右エッジデジタル画像(750)を生成することと、
前記左エッジデジタル画像と前記右エッジデジタル画像との間の低密度ステレオ視差(760)を判定することと、
前記低密度ステレオ視差に基づいて、前記少なくとも一つのGETに対する摩耗レベルまたは喪失を判定することと、を含む、方法。 - 前記左画像から前記第一の関心領域を識別し、前記右画像から前記第二の関心領域を識別することが、深層学習GET検出アルゴリズムを前記左画像および前記右画像に適用することを含む、請求項1に記載の方法。
- 前記左画像から前記第一の関心領域を識別し、前記右画像から前記第二の関心領域を識別することが、前記左画像および前記右画像に対して高密度ステレオ視差マップ(530)を生成することを含む、請求項1に記載の方法。
- 前記左画像から前記第一の関心領域を識別し、前記右画像から前記第二の関心領域を識別することが、前記高密度ステレオ視差マップに少なくとも部分的に基づいて3D点群(540)を生成することをさらに含む、請求項3に記載の方法。
- 深層学習GET位置アルゴリズムを、前記第一の関心領域または前記第二の関心領域のいずれか一つに適用して、前記低密度ステレオ視差における信頼度を判定することをさらに含む、請求項1に記載の方法。
- システムであって、
立体カメラ(128)と、
一つ以上のプロセッサ(140)と、
前記一つ以上のプロセッサによって実行されると、前記一つ以上のプロセッサに、
前記立体カメラから、作業機械(100)のバケット(120)であって、前記バケットが少なくとも一つの接地係合ツール(GET)(125)を有する、バケット(120)の左画像(510)および右画像(530)を受信することであって、前記左画像および前記右画像がデジタルである、受信することと、
前記左画像から第一の関心領域(550)であって、前記第一の関心領域が前記少なくとも一つのGETに対応する、第一の関心領域を識別することと、
前記右画像から第二の関心領域(560)であって、前記第二の関心領域が前記少なくとも一つのGETに対応する、第二の関心領域を識別することと、
前記第一の関心領域に対応する左エッジデジタル画像(740)を生成することと、
前記第二の関心領域に対応する右エッジデジタル画像(750)を生成することと、
前記左エッジデジタル画像デジタル画像と前記右エッジデジタル画像との間の低密度ステレオ視差(530)を判定することと、
前記低密度ステレオ視差に基づいて、前記少なくとも一つのGETに対する摩耗レベルまたは喪失を判定することと、を含む動作を実行させる実行可能命令を格納する非一時的コンピュータ可読媒体(150)と、を備える、システム。 - 前記左画像から前記第一の関心領域を識別し、前記右画像から前記第二の関心領域を識別することが、深層学習GET検出アルゴリズムを前記左画像および前記右画像に適用することを含む、請求項6に記載のシステム。
- 前記左画像から前記第一の関心領域を識別し、前記右画像から前記第二の関心領域を識別することが、前記左画像および前記右画像に対して高密度ステレオ視差マップ(530)を生成することを含む、請求項6に記載のシステム。
- 前記左画像から前記第一の関心領域を識別し、前記右画像から前記第二の関心領域を識別することが、前記高密度ステレオ視差マップに少なくとも部分的に基づいて3D点群(540)を生成することをさらに含む、請求項6に記載のシステム。
- 前記動作が、深層学習GET位置アルゴリズムを、前記第一の関心領域または前記第二の関心領域のいずれか一つに適用して、前記低密度ステレオ視差の信頼度を判定することをさらに含む、請求項9に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/171,569 | 2021-02-09 | ||
US17/171,569 US11821177B2 (en) | 2021-02-09 | 2021-02-09 | Ground engaging tool wear and loss detection system and method |
PCT/US2022/013639 WO2022173586A1 (en) | 2021-02-09 | 2022-01-25 | Ground engaging tool wear and loss detection system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024507090A true JP2024507090A (ja) | 2024-02-16 |
Family
ID=80787014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023546489A Pending JP2024507090A (ja) | 2021-02-09 | 2022-01-25 | 接地係合ツールの摩耗および喪失検出システムならびに方法 |
Country Status (9)
Country | Link |
---|---|
US (1) | US11821177B2 (ja) |
EP (1) | EP4292054A1 (ja) |
JP (1) | JP2024507090A (ja) |
CN (1) | CN116830160A (ja) |
AU (1) | AU2022219034A1 (ja) |
CA (1) | CA3206445A1 (ja) |
CL (1) | CL2023002283A1 (ja) |
MX (1) | MX2023008940A (ja) |
WO (1) | WO2022173586A1 (ja) |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2546758C (en) | 2006-05-12 | 2009-07-07 | Alberta Research Council Inc. | A system and a method for detecting a damaged or missing machine part |
US20150085123A1 (en) * | 2013-09-23 | 2015-03-26 | Motion Metrics International Corp. | Method and apparatus for monitoring a condition of an operating implement in heavy loading equipment |
AU2014262221C1 (en) | 2013-11-25 | 2021-06-10 | Esco Group Llc | Wear part monitoring |
PE20210227A1 (es) | 2015-02-13 | 2021-02-05 | Esco Group Llc | Monitoreo de productos de acondicionamiento del terreno para equipo de trabajo de movimiento de tierra |
WO2016183661A1 (en) | 2015-05-15 | 2016-11-24 | Motion Metrics International Corp | Method and apparatus for locating a wear part in an image of an operating implement |
US20170103506A1 (en) | 2015-10-09 | 2017-04-13 | Caterpillar Inc. | Component health monitoring system using computer vision |
US9886754B2 (en) | 2016-04-05 | 2018-02-06 | General Electric Company | System and method for detecting missing tooth in mining shovel |
US20170352199A1 (en) | 2016-06-01 | 2017-12-07 | Esco Corporation | Ground engaging tool management |
US20170051474A1 (en) | 2016-11-04 | 2017-02-23 | Caterpillar Inc. | Path detection for ground engaging teeth |
US10249060B2 (en) | 2016-12-14 | 2019-04-02 | Caterpillar Inc. | Tool erosion detecting system using augmented reality |
CN106592679A (zh) | 2016-12-22 | 2017-04-26 | 武汉理工大学 | 一种铲车铲齿脱落预警装置和方法 |
CA3005183A1 (en) | 2017-05-30 | 2018-11-30 | Joy Global Surface Mining Inc | Predictive replacement for heavy machinery |
CN107862675A (zh) | 2017-09-25 | 2018-03-30 | 中北大学 | 一种用于电铲斗齿缺失的实时视觉检测方法 |
EP4307174A3 (en) | 2018-06-01 | 2024-04-17 | Motion Metrics International Corp. | Method, apparatus and system for monitoring a condition associated with operating heavy equipment such as a mining shovel or excavator |
US11447931B2 (en) | 2019-05-15 | 2022-09-20 | Caterpillar Inc. | Ground engaging tool monitoring system |
US11466984B2 (en) | 2019-05-15 | 2022-10-11 | Caterpillar Inc. | Bucket get monitoring system |
AU2020285370A1 (en) | 2019-05-31 | 2021-12-02 | Cqms Pty Ltd | Ground engaging tool monitoring system |
CA3143593A1 (en) | 2019-06-17 | 2020-12-24 | Esco Group Llc | Monitoring ground engaging products |
US11138718B2 (en) | 2019-08-09 | 2021-10-05 | Caterpillar Inc. | Methods and systems for determining part wear using a bounding model |
CN114340997A (zh) | 2019-08-30 | 2022-04-12 | 爱斯科集团有限责任公司 | 监测用于土工设备的地面接合工具、系统和方法 |
-
2021
- 2021-02-09 US US17/171,569 patent/US11821177B2/en active Active
-
2022
- 2022-01-25 CA CA3206445A patent/CA3206445A1/en active Pending
- 2022-01-25 WO PCT/US2022/013639 patent/WO2022173586A1/en active Application Filing
- 2022-01-25 AU AU2022219034A patent/AU2022219034A1/en active Pending
- 2022-01-25 MX MX2023008940A patent/MX2023008940A/es unknown
- 2022-01-25 CN CN202280012319.9A patent/CN116830160A/zh active Pending
- 2022-01-25 EP EP22705494.7A patent/EP4292054A1/en active Pending
- 2022-01-25 JP JP2023546489A patent/JP2024507090A/ja active Pending
-
2023
- 2023-08-02 CL CL2023002283A patent/CL2023002283A1/es unknown
Also Published As
Publication number | Publication date |
---|---|
AU2022219034A1 (en) | 2023-09-07 |
MX2023008940A (es) | 2023-08-11 |
CA3206445A1 (en) | 2022-08-18 |
WO2022173586A1 (en) | 2022-08-18 |
EP4292054A1 (en) | 2023-12-20 |
CL2023002283A1 (es) | 2024-02-16 |
US11821177B2 (en) | 2023-11-21 |
US20220251807A1 (en) | 2022-08-11 |
CN116830160A (zh) | 2023-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12020419B2 (en) | Ground engaging tool wear and loss detection system and method | |
AU2016228309A1 (en) | Component health monitoring system using computer vision | |
US11669956B2 (en) | Ground engaging tool wear and loss detection system and method | |
US11869331B2 (en) | Ground engaging tool wear and loss detection system and method | |
JP2023548284A (ja) | バレルを用いたバレルテンプレートの摩耗検出システムと方法 | |
JP2024507090A (ja) | 接地係合ツールの摩耗および喪失検出システムならびに方法 | |
RU2820623C1 (ru) | Система и метод обнаружения износа и потери землеройной техники | |
US20220136217A1 (en) | Ground engaging tool wear and loss detection system and method | |
KR102193830B1 (ko) | 터널 막장면의 계측자료에 따른 지반 트렌드 기반의 전방 예측 방법과 예측 시스템 | |
US20230351581A1 (en) | System, device, and process for monitoring earth working wear parts |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230830 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20230914 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20231201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240625 |