JP7240382B2 - 作業機械 - Google Patents

作業機械 Download PDF

Info

Publication number
JP7240382B2
JP7240382B2 JP2020512096A JP2020512096A JP7240382B2 JP 7240382 B2 JP7240382 B2 JP 7240382B2 JP 2020512096 A JP2020512096 A JP 2020512096A JP 2020512096 A JP2020512096 A JP 2020512096A JP 7240382 B2 JP7240382 B2 JP 7240382B2
Authority
JP
Japan
Prior art keywords
machine
training
movable element
camera
attachment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020512096A
Other languages
English (en)
Other versions
JP2020520425A (ja
Inventor
コロチャーノ ダヴィド ガルシア
Original Assignee
ジェイ.シー. バンフォード エクスカベターズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB1707274.5A external-priority patent/GB2562122B/en
Priority claimed from GB1707273.7A external-priority patent/GB2562121B/en
Application filed by ジェイ.シー. バンフォード エクスカベターズ リミテッド filed Critical ジェイ.シー. バンフォード エクスカベターズ リミテッド
Publication of JP2020520425A publication Critical patent/JP2020520425A/ja
Application granted granted Critical
Publication of JP7240382B2 publication Critical patent/JP7240382B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/264Sensors and their calibration for indicating the position of the work tool
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D41/00Combines, i.e. harvesters or mowers combined with threshing devices
    • A01D41/12Details of combines
    • A01D41/127Control or measuring arrangements specially adapted for combines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mining & Mineral Resources (AREA)
  • Structural Engineering (AREA)
  • Civil Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Environmental Sciences (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Operation Control Of Excavators (AREA)
  • Component Parts Of Construction Machinery (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、作業機械に関する。特に、本発明は、作業機械の可動要素の位置を決定することに関する。
バックホーローダーのような作業機械は、通常、タスクを実行するための1又は2以上の可動要素を有する。例えば、バックホーローダーは、前部にショベル及び後部にバックホーを有する。可動要素の正確な位置を知ることは、溝掘りのようなある一定のタスクを実行する時に有用である可能性がある。バックホーローダーの場合に、特定の深さまで溝を掘る時にバックホーバケットの正確な位置を得ることが望ましいと考えられる。
可動要素の位置を決定するために、1又は2以上のセンサから位置を導出することは一般的である。センサは、可動要素を駆動する油圧アクチュエータの伸長を検出することができる。例えば、センサは、バックホーローダーアームの個々のセクションを駆動する油圧アクチュエータ又はバケットをピボット回転させる油圧アクチュエータの伸長を測定することができる。これに代えて、センサは、可動要素の個々のセクション間の回転を検出することができる。例えば、センサは、バックホーローダーアームの個々のセクション間の回転角(ブームとジッパー間の回転角のような)を測定することができ、又はアーム及びアタッチメント(アーム及びバケットのような)間の回転角を測定することができる。
油圧アクチュエータの伸長は、通常、線形エンコーダを組み込むセンサで測定される。センサは、作業機械上の固定位置に位置付けられ、かつ油圧アクチュエータの伸長可能部分上にマーク付けされた目盛りと対になっている。センサは、目盛りを読み取って油圧アクチュエータの伸長を測定する。線形エンコーダを組み込むセンサは、複雑で高価であり、製造コストを増大する。これに加えて、それらは、損傷を受け易い精密機器の精巧な品目である。
可動要素の個々のセクション間の回転角は、通常、回転エンコーダを組み込むセンサを使用して測定される。回転エンコーダは、典型的に線形エンコーダよりも廉価であるが、弱く、精巧であり、かつ作動中に破損し易く、運用コスト及び保守コストを増大する。
センサの修理は高価であり、損傷している間は可動要素の位置を決定することが可能ではない。更に、作業機械は、典型的に汚れて埃っぽい環境で作動し、ごみ又は塵は、例えば、線形エンコーダによって頼られる目盛りを曖昧にすることにより、センサの作動及び精度に影響を及ぼす可能性がある。
これらの問題を克服する方法を見出すことが望ましいと考えられる。
本発明の第1の態様により、本体及び本体に対して可動である可動要素と、可動要素の少なくとも一部分の画像を取り込むように配置されたカメラと、可動要素の位置を可動要素の画像から決定するように訓練され、カメラから画像を受信して画像内の可動要素の位置を決定する機械学習アルゴリズムを実行するように構成されたプロセッサとを含む作業機械を提供する。
機械学習アルゴリズムは、センサの必要なく可動要素の位置を予測することができ、これは、センサが高価である傾向があり、損傷を受け易く、作業機械が典型的に作動する汚れて埃っぽい環境がセンサの作動及び精度に影響を及ぼす可能性があるので有利である。従って、可動要素の位置を予測する機械学習アルゴリズムの使用は、作業機械のコストを低減し、信頼性を改善する。
可動要素の位置によって意味するのは、可動要素上の1又は2以上の点の位置を決定することができ、及び/又は可動要素の向きを決定することができるということである。可動要素の位置は、作業機械に対して決定することができる。現実世界での作業機械の位置が、例えば、全地球測位システム測定から既知である場合に、現実世界での可動要素の位置も決定することができる。
機械学習アルゴリズムは、ニューラルネットワークを含むことができる。ニューラルネットワークは、画像に基づいて可動要素の位置を決定する時に特に正確であることが見出されている。任意的に、ニューラルネットワークは、監視下深層学習ニューラルネットワークである。試行において、ニューラルネットワークは、監視下深層学習を用いて97%までの機会で位置を正しく分類することが見出されている。これに代えて、ニューラルネットワークは、画像に基づいて可動要素の位置を決定する時に特に正確であることが見出されている監視下畳み込みニューラルネットワークである場合がある。
作業機械は、以下に限定されるものではないが、バックホーローダー、トラクター、フォークリフト、スキッドステアローダー、掘削機、及び伸縮自在ハンドラーを含む採掘又は資材取り扱い機能を備えた建設及び農業機械のうちの1つとすることができる。
可動要素は、複数の個々の可動セクションを含むことができる。各個々の可動セクションは、平行移動可能(例えば、伸縮自在)である場合があり、又は1又は2以上の他の個々の可動セクションに対してピボット回転可能である場合がある。例えば、可動要素は、個々の可動セクションがブーム、ジッパー、及びアタッチメントを含むアームである場合がある。機械学習アルゴリズムは、複数の個々の可動セクションのうちの1又は2以上の位置を決定することができる。複数の個々の可動セクションのうちの1又は2以上の位置を決定する段階は、複数の個々の可動セクションのうちの1又は2以上の向きを決定する段階、又は複数の個々の可動セクションのうちの2又は3以上の間の相対的な向きを決定する段階を含むことができる。
可動要素は、アタッチメントを含むことができる。
機械学習アルゴリズムは、アタッチメント上の1又は2以上の点の位置を予測することができる。アタッチメントは、例えば、ツール(破砕機、ブレード、又はカッターのような)、バケット、又はフォークである場合がある。機械学習アルゴリズムは、アタッチメントがワークピースに接触する点又は縁部(バケットの縁部又は破砕機の先端のような)の位置を予測することができる。これは、オペレータが正確な作動(望ましい深さの溝を掘るような)に関してワークピース(地面のような)に対してアタッチメントを位置決めするのを支援するガイダンスを提供する、又はアタッチメントの完全自動制御を可能にするのに使用することができる。
機械学習アルゴリズムはまた、アタッチメントの向きを決定することができる。
可動要素は、アーム及びアタッチメントを含むことができる。アームは、各セクションが独立に可動である複数の個々のセクションを含むことができる。アームは、ブーム及びジッパーを含むことができる。機械学習アルゴリズムは、アーム上の1又は2以上の点(セクション間のピボット点のような)の位置、アームの向き、又はアームのセクション間の相対的な向きを予測することができる。
アタッチメントは、土工工事アタッチメント、資材取り扱いアタッチメント、林業アタッチメント、廃棄物処理アタッチメント、又は農業アタッチメントのうちの1つとすることができる。
プロセッサは、機械学習アルゴリズムに対する更新を受信するように構成することができる。更新は、機械学習アルゴリズムを訓練して新しいタイプのアタッチメントの位置を決定するように構成することができる。
プロセッサは、適切なソース、例えば、以下に限定されるものではないが、作業機械に一時的に接続されたストレージ媒体から、コンパクトディスク又は作業機械に一時的に取り付けられたデバイス(USBソケットに接続されたメモリスティックのような)から、又は通信ネットワーク(セルラー又はWiFi通信ネットワークのような)に結合された通信インタフェースから更新を受信することができ、更新は、サーバから通信ネットワーク上で送信することができる。
機械学習アルゴリズムは、訓練機械によって発生された訓練データを使用して既に訓練されている場合がある。
訓練データは、実際の作動の下で訓練機械を作動させることによって発生させることができる。
通常作動の下で訓練機械を作動させる段階は、作業機械の規則的又は典型的な日常作動中に訓練機械を作動させる段階を含むことができる。通常作動は、作業機械が頻繁に又は時々に実行することを要求される異なるタスクの全範囲を通して訓練機械を作動させる段階を含むことができる。例えば、バックホーローダーの通常作動は、異なる条件で異なるタイプの溝を掘るような建築現場での典型的な建設作業中のバックホーローダーの使用を含むことができ、トラクターの通常作動は、農場でのトラクターの使用を含むことができ、フォークリフトの通常作動は、倉庫内で商品を取り出して運ぶフォークリフトの使用を含むことができる。作業機械が実行することを要求される広範囲の異なるタスクを通して訓練機械を作動させることにより、訓練データは、同様に広範囲の異なるタスク中にかつ多くの異なる状況(異なる現場、照明条件、及び気象条件のような)の下で撮られた画像内の可動要素の位置を正確に決定する機械学習アルゴリズムの機能を改善することになる機械学習アルゴリズムに対する徹底的な訓練を提供することになる。
通常作動の下で訓練機械を作動させる段階は、変動する気象条件、例えば、雨、雪、霧、みぞれ、あられ、及び日光の下で訓練機械を作動させる段階を含む場合があると考えられる。通常作動の下で訓練機械を作動させる段階は、例えば、1日の様々な時間(昼間、夜間、薄明かり、夕暮、及び日の出のような)に作業機械を作動させ、かつ人工照明の下で作業機械を作動させることにより、異なる照明条件下で訓練機械を作動させる段階を含むことができる。広範囲の異なる気象条件及び/又は照明条件にわたって訓練データを収集することは、同様に広範囲な気象条件及び/又は照明条件の下で撮られた画像から可動要素の位置を識別する機械学習アルゴリズムの信頼性を改善することになる。
訓練機械は、作業機械と同じタイプのものである場合がある。可動要素は、アタッチメントを含むことができ、訓練機械は、作業機械と同じタイプのアタッチメントを含むことができる。
この技術は、あらゆるタイプの作業機械及びアタッチメントに対して機械学習アルゴリズムが作業機械及びアタッチメントのこの特定の組合せに対して訓練されている限り適用可能である。例えば、機械学習アルゴリズムは、バックホーローダー上のバケットの位置を機械学習アルゴリズムが同じタイプのバケットを有する同等のバックホーローダーから得られた訓練データを使用して訓練されていた場合に決定することができる。
カメラは、訓練機械上のカメラと同じ位置及び向きに配置することができる。カメラは、訓練機械上のカメラと同じ視野角を与えるように配置することができる。
機械学習アルゴリズムが最適な方法で機能することを保証するために、かつ機械学習アルゴリズムが可動要素の位置を正確に決定する可能性を改善するために、作業機械上のカメラは、機械学習アルゴリズムを訓練するのに使用されたカメラと同じ位置及び向きに位置付けられ、かつ同じ視野角を提供し、すなわち、作業機械のカメラは、機械学習アルゴリズムを訓練するのに使用された訓練データを提供した訓練機械上に位置付けられたカメラと同じ位置及び向きに位置付けられ、かつ同じ視野角を提供しなければならない。
機械学習アルゴリズムは、訓練データを使用して既に訓練されている場合がある。訓練データは、可動要素の少なくとも一部分の複数の画像を含むことができ、複数の画像の各画像は、それぞれの画像内の可動要素の位置を示す対応するセンサデータを有する。
訓練データは、カメラ、センサ、本体、及び本体に対して可動である可動要素を有する作業機械を含む訓練機械を使用して既に発生されている場合がある。複数の画像は、カメラを使用して既に取り込まれている場合があり、センサデータは、センサを使用して既に決定されている場合がある。
カメラは、可動要素の望ましい移動範囲を網羅する視野角を与えるように配置することができる。
作業機械は、可動要素を移動するように配置された油圧機器を更に含むことができ、カメラは、油圧機器の少なくとも一部分の視野を与えるように配置することができる。
油圧機器(油圧アクチュエータのような)の位置、向き、及び伸長は、機械学習アルゴリズムが可動要素の位置を正確に決定することを支援し、かつ機械学習アルゴリズムがカメラの視野から外れた可動要素の一部分の位置を推測することを可能にすることができる。
プロセッサは、決定された位置を別のデバイスに通信するか又はディスプレイ上に決定された位置を表示するように構成することができる。
本発明の第2の態様により、監視下機械学習のための訓練データを発生させる方法を提供し、本方法は、カメラと、センサと、本体と、本体に対して可動である可動要素とを有する作業機械を含む訓練機械を作動させる段階と、可動要素の少なくとも一部分の画像をカメラを使用して取り込むことにより、及び画像に対応し、画像内の可動要素の位置を示すセンサデータをセンサを使用して決定することにより、訓練データを発生させる段階とを含む。
訓練データは、監視下機械学習に使用することができる対応するセンサデータを有する画像を提供して機械学習アルゴリズムを訓練し、訓練された状態で、センサの必要なく単に画像に基づいて作業機械上の可動要素の位置を予測する。これは、それがセンサを必要としない作業機械が将来構築されることを可能にするので有利である。センサは、高価である傾向があり、損傷しやすく、従って、センサに対する必要性を排除することは、作業機械の製造コストを低減し、作業機械の信頼性及び耐久性を高める。
可動要素の位置によって意味するのは、可動要素上の1又は2以上の点(バケットの縁部又は破砕機の先端のようなアタッチメント上の1又は2以上の点のような)の位置を決定することができ、及び/又は可動要素の向きを決定することができることである。可動要素の位置は、作業機械に対して決定することができる。現実世界での作業機械の位置が、例えば、全地球測位システム測定から既知である場合に、現実世界での可動要素の位置も決定することができると考えられる。本方法は、可動要素の少なくとも一部分の複数の画像をカメラを使用して取り込む段階と、複数の画像の各画像に対応し、各画像内の可動要素の位置を示すセンサデータをセンサを使用して決定する段階とを含むことができる。
訓練データを発生させる段階は、作業機械の通常作動中に訓練機械を作動させる段階と、各画像が通常作動中のある瞬間に取り込まれ、かつ各画像がその瞬間での可動要素の少なくとも一部分の画像を含む複数の画像をカメラを使用して取り込む段階と、センサを使用してそれぞれの画像内の可動要素の位置を示す各画像に対応するセンサデータを決定する段階とを含むことができる。
訓練機械は、訓練機械が通常作動を行う時に訓練データを収集するように通常作動に対して派遣された標準的な作業機械である場合がある。例えば、訓練機械は、標準的な作業機械としてオペレータに販売することができると考えられ、訓練機械は、オペレータが規則的な日常作動中に訓練機械を使用する時に訓練データを発生させることができる。
通常作動中に訓練機械を作動させる段階は、通常作動中に予測されるある範囲の移動を通して可動要素を移動する段階を含むことができる。
作業機械の通常作動の下で訓練機械を作動させる段階は、作業機械の規則的な又は典型的な日常作動中に訓練機械を作動させる段階を含むことができる。通常作動は、作業機械が頻繁に又は時々に実行する必要があると考えられる全範囲の異なるタスクを通して訓練機械を作動させる段階を含むことができる。例えば、バックホーローダーの通常作動は、溝を掘るような建築現場での典型的な建設作動中のバックホーローダーの使用を含む場合があり、トラクターの通常作動は、農場でのトラクターの使用を含む場合があり、フォークリフトの通常作動は、倉庫内で品物を取り出して運ぶためのフォークリフトの使用を含む場合がある。作業機械の実施が要求される場合がある広範囲の異なるタスクを通して訓練機械を作動させながら訓練データを発生させることにより、訓練データは、広範囲の異なるタスク中にかつ多くの異なる状況(異なる現場、照明条件などのような)の下で撮られた画像内の可動要素の位置を正確に決定するために機械学習アルゴリズムの能力を改善することになる機械学習アルゴリズムに対する徹底的な訓練を提供することになる。センサの必要なく画像のみから可動要素の位置を正確に決定することができるように機械学習アルゴリズムを訓練するための十分な訓練データが収集された状態で、可動要素の位置を決定するためのセンサを必要としない作業機械を構築することができる。
通常作動の下で訓練機械を作動させる段階は、変動する気象条件、例えば、雨、雪、霧、みぞれ、あられ、及び日光の下で訓練機械を作動させる段階を含む場合があると考えられる。通常作動の下で訓練機械を作動させる段階は、例えば、昼間、夜間、薄明、夕暮、及び日の出のような1日の様々な時間に作業機械を作動させることにより、異なる照明条件の下で訓練機械を作動させる段階を含む場合がある。これは、広範囲の気象条件及び1日の異なる時間での広範囲の可能な現場作動で作業する可動要素の位置を識別するための機械学習アルゴリズムの信頼性を改善することになる。
訓練機械は、以下に限定されるものではないが、バックホーローダー、トラクター、フォークリフト、スキッドステアローダー、掘削機、及び伸縮自在ハンドラーを含む採掘又は資材取り扱い機能を有する建設及び農業機械のうちの1つとすることができる。
可動要素は、複数の個々の可動セクションを含むことができる。各個々の可動セクションは、平行移動可能(例えば、伸縮自在)である場合があり、又は1又は2以上の他の個々の可動セクションに対してピボット回転可能である場合がある。例えば、可動要素は、個々の可動セクションがブーム、ジッパー、及びアタッチメントを含むアームである場合がある。機械学習アルゴリズムは、複数の個々の可動セクションのうちの1又は2以上の位置を決定することができる。複数の個々の可動セクションのうちの1又は2以上の位置を決定する段階は、複数の個々の可動セクションのうちの1又は2以上の向きを決定する段階、又は複数の個々の可動セクションのうちの2又は3以上の間の相対的な向きを決定する段階を含むことができる。
可動要素は、アーム及び/又はアタッチメントを含むことができる。
通常作動の下で訓練機械を作動させる段階は、アーム及びアタッチメントの通常作動中のアーム及びアタッチメントの使用中に予測されるある範囲の運動を通してアーム及びアタッチメントを移動する段階を含むことができる。
アタッチメントは、土工工事アタッチメント、資材取り扱いアタッチメント、林業アタッチメント、廃棄物処理アタッチメント、又は農業アタッチメントのうちの1つである場合がある。
カメラは、可動要素の望ましい範囲の移動を網羅する視野角を与えるように配置することができる。これは、機械学習アルゴリズムが可動要素の望ましい範囲の移動にわたって可動要素の位置を決定することができることになることを保証する。
油圧機器は、可動要素を移動するように配置することができ、カメラは、油圧機器の少なくとも一部分の視野を提供するように配置することができる。
油圧機器(油圧ラムのような)の位置、向き、及び伸長は、機械学習アルゴリズムが可動要素の位置を正確に決定することを支援する。
訓練データは、監視下機械学習のための機械学習アルゴリズムを含むコンピュータに転送することができる。本方法は、訓練データをストレージデバイス上に格納する段階を含むことができる。ストレージデバイスは、取外し可能である場合があり、かつ取り外してコンピュータに接続されて訓練データをコンピュータに転送することができる。これに加えて又はこれに代えて、訓練データは、コンピュータへの転送のためにストレージデバイスから携帯型ストレージデバイスに転送することができる。本方法は、通信ネットワーク(セルラー又は無線通信ネットワークのような)上で訓練データをコンピュータに送信する段階を含むことができる。
機械学習アルゴリズムは、ニューラルネットワークを含むことができる。ニューラルネットワークは、画像に基づいて可動要素の位置を決定する時に特に正確であることが見出されている。任意的に、ニューラルネットワークは、監視下深層学習ニューラルネットワークである。試行において、ニューラルネットワークは、監視下深層学習を用いて97%までの機会で位置を正しく分類することが見出されている。これに代えて、ニューラルネットワークは、画像に基づいて可動要素の位置を決定する時に特に正確であることが見出されている監視下畳み込みニューラルネットワークである場合がある。
本発明の第3の態様により、監視下機械学習のための訓練データを発生させる訓練機械を提供し、訓練機械は、本体と、可動要素と、カメラと、センサとを有する作業機械を含み、可動要素は、本体に対して可動であり、カメラは、可動要素の少なくとも一部分の画像を取り込むように配置され、センサは、可動要素の位置を示すセンサデータを決定するように構成され、訓練機械は、カメラからの画像と画像内の可動要素の位置を示すセンサからの対応するセンサデータとを受信することによって訓練データを発生させるように構成されたプロセッサを更に含む。
訓練機械は、センサの必要なく単に画像に基づいて作業機械上の可動要素の位置を予測するように機械学習アルゴリズムを訓練するために、監視下機械学習に使用することができる対応するセンサデータを有する画像を含む訓練データを発生させる。これは、それがセンサを必要としない作業機械が将来構築されることを可能にするので有利である。センサは、高価である傾向があり、損傷し易く、従って、センサに対する必要性を排除することは、作業機械の製造コストを低減し、作業機械の信頼性及び耐久性を更に高める。
可動要素の位置によって意味するのは、可動要素上の1又は2以上の点(バケットの縁部又は破砕機の先端のようなアタッチメント上の1又は2以上の点のような)の位置を決定することができ、及び/又は可動要素の向きを決定することができることである。可動要素の位置は、作業機械に対して決定することができる。現実世界での作業機械の位置が、例えば、全地球測位システム測定から既知である場合に、現実世界での可動要素の位置も決定することができると考えられる。
プロセッサは、各画像が通常作動中のある瞬間に取り込まれ、かつ各画像がその瞬間での可動要素の少なくとも一部分の画像を含む複数の画像をカメラから受信し、かつそれぞれの画像内の可動要素の位置を示す各画像に対応するセンサデータを受信することによって訓練データを発生させるように構成することができる。
訓練機械は、訓練機械が通常作動を行う時に訓練データを収集するために通常作動に対して派遣される標準的で生産的な作業機械とすることができる。例えば、訓練機械は、標準的で生産的な作業機械としてオペレータに販売し、訓練機械は、オペレータが規則的な日常作動中に訓練機械を使用する時に訓練データを発生させることができる。
通常作動は、通常作動中に予測されるある範囲の移動を通して可動要素を移動する段階を含むことができる。
通常作動は、作業機械の規則的又は典型的な日常作動中に訓練機械を作動させる段階を含むことができる。通常作動は、作業機械が頻繁に又は時々に実行する必要があると考えられる全範囲の異なるタスクを通して訓練機械を作動させる段階を含むことができる。例えば、バックホーローダーの通常作動は、溝を掘るなどの建築現場での典型的な建設作業中のバックホーローダーの使用を含むことができ、トラクターの通常作動は、農場でのトラクターの使用を含むことができ、フォークリフトの通常作動は、倉庫内で品物を取り出して運ぶためのフォークリフトの使用を含むことができる。作業機械を実行する必要がある広範囲の異なるタスクを通して訓練機械を作動させながら訓練データを発生させることにより、訓練データは、広範囲の異なるタスクをしながらかつ多くの様々な状況(異なる現場、照明条件のような)の下で取り込まれた画像内の可動要素の位置を正確に決定するように機械学習アルゴリズムの機能を改善するための機械学習アルゴリズムの徹底的な訓練を提供することになる。センサの必要なく画像のみから可動要素の位置を正確に決定することができるように機械学習アルゴリズムを訓練するための十分な訓練データが収集された状態で、可動要素の位置を決定するためのセンサを必要としない作業機械を構築することができる。
通常作動は、変動する気象条件、例えば、雨、雪、霧、みぞれ、あられ、及び日光の下で訓練機械を作動させる段階を含むことができる。通常作動の下で訓練機械を作動させる段階は、例えば、昼間、夜間、薄明かり、夕暮、及び日の出のような1日の様々な時間に作業機械を作動させることによって異なる照明条件の下で訓練機械を作動させる段階を含むことができる。これは、広範囲な可能な現場作動で広範囲な気象条件下でかつ1日の異なる時間で作業する可動要素の位置を識別する機械学習アルゴリズムの信頼性を改善することになる。
訓練機械は、以下に限定されるものではないが、バックホーローダー、トラクター、フォークリフト、スキッドステアローダー、掘削機、及び伸縮自在ハンドラーを含む採掘又は資材取り扱い機能を有する建設及び農業機械のうちの1つとすることができる。
可動要素は、複数の個々の可動セクションを含むことができる。個々の可動セクションは、平行移動可能(例えば、伸縮自在)とすることができ、又は1又は2以上の他の個々の可動セクションに対してピボット回転可能とすることができる。例えば、可動要素は、個々の可動セクションがブーム、ジッパー、及びアタッチメントを含むアームとすることができる。機械学習アルゴリズムは、複数の個々の可動セクションのうちの1又は2以上の位置を決定することができる。複数の個々の可動セクションのうちの1又は2以上の位置を決定することは、複数の個々の可動セクションの1又は2以上の向きを決定する又は複数の個々の可動セクションの2又は3以上の間の相対的な向きを決定する段階を含むことができる。
可動要素は、アーム及びアタッチメントを含むことができる。
通常作動は、アーム及びアタッチメントの通常作動中のアーム及びアタッチメントの使用中に予測されるある範囲の運動を通してアーム及びアタッチメントを移動する段階を含むことができる。
センサは、アーム又はアタッチメントの位置を決定するように構成することができる。
センサは、アームを駆動する油圧アクチュエータの伸長、及びアームのセクション間の回転角のうちの少なくとも一方を決定するように構成することができる。
アタッチメントは、土工工事アタッチメント、資材取り扱いアタッチメント、林業アタッチメント、廃棄物処理アタッチメント、又は農業アタッチメントのうちの1つとすることができる。
カメラは、可動要素の望ましい移動の範囲を網羅する視野角を与えるように配置することができる。これは、機械学習アルゴリズムが可動要素の望ましい移動の範囲にわたって可動要素の位置を決定することができることになることを保証する。
カメラは、生産作業機械上のカメラと同じ位置及び向きに配置することができ、カメラは、生産作業機械上のカメラと同じ視野角を与えるように配置することができる。
機械学習アルゴリズムが最適の方法で機能することを保証するために、かつ機械学習アルゴリズムがセンサの必要なく単に画像に基づいて可動要素の位置を正確に決定する可能性を改善するために、機械学習アルゴリズムを訓練するのに使用されるカメラ(機械学習アルゴリズムを訓練するための訓練データを提供する訓練機械上のカメラ)は、機械学習が使用されることになる生産作業機械上のカメラと同じ位置及び向きに位置付けられ、かつ同じ視野角を与える。
訓練機械は、可動要素を移動するように配置された油圧機器を更に含むことができ、カメラは、油圧機器の少なくとも一部分の視野を提供するように配置することができる。油圧機器(油圧ラムのような)の位置、向き、及び伸長は、機械学習アルゴリズムが可動要素の位置を正確に決定することを支援する。
訓練機械は、監視下機械学習のための機械学習アルゴリズムを含むコンピュータへの訓練データの転送を可能にするために訓練データを格納するように構成されたストレージデバイスを含むことができる。ストレージデバイスは、取外し可能、かつ訓練データをコンピュータに転送するためにコンピュータに接続可能とすることができる。訓練機械は、訓練データを転送するために携帯型ストレージデバイスに接続可能な出力を含むことができる。訓練機械は、通信ネットワーク(セルラー又は無線通信ネットワークのような)を通してコンピュータに訓練データを送信するように構成された通信インタフェースを含むことができる。
機械学習アルゴリズムは、ニューラルネットワークを含むことができる。ニューラルネットワークは、画像に基づいて可動要素の位置を決定する時に特に正確であることが見出されている。任意的に、ニューラルネットワークは、監視下深層学習ニューラルネットワークである。試行において、ニューラルネットワークは、監視下深層学習を用いて97%までの機会で位置を正しく分類することが見出されている。これに代えて、ニューラルネットワークは、画像に基づいて可動要素の位置を決定する時に特に正確であることが見出されている監視下畳み込みニューラルネットワークとすることができる。
本発明の第4の態様により、可動要素の少なくとも一部分の画像に基づいて作業機械上の可動要素の位置を決定する機械学習アルゴリズムを訓練するコンピュータ実装方法を提供し、本方法は、各画像がそれぞれの画像内の可動要素の位置を示す対応するセンサデータを有する可動要素の複数の画像を含む訓練データを提供する段階と、対応するセンサデータなしで画像内の可動要素の位置を認識する機械学習アルゴリズムを訓練するために訓練データを使用する段階とを含む。
可動要素の位置によって意味することは、可動要素上の1又は2以上の点(バケットの縁部又は破砕機の先端のようなアタッチメント上の1又は2以上の点のような)の位置を決定することができる及び/又は可動要素の向きを決定することができるということである。可動要素の位置は、作業機械に対して決定することができる。現実世界での作業機械の位置が、例えば、全地球測位システム測定から既知である場合に、現実世界での可動要素の位置も決定することができる。
訓練データは、本発明の第3の態様による訓練機械によって発生されたものとすることができる。
画像は、グレースケール画像又はフルカラー画像を含むことができる。
グレースケール画像を使用する利点は、機械学習アルゴリズムが、機械学習アルゴリズムが訓練されたのと同じ色を有する作業機械の認識に限定されないことになり、かつ機械学習アルゴリズムの処理速度を改善することができるということである。
機械学習アルゴリズムは、ニューラルネットワークを含むことができる。ニューラルネットワークは、画像に基づいて可動要素の位置を決定する時に特に正確であることが見出されている。任意的に、ニューラルネットワークは、監視下深層学習ニューラルネットワークである。試行において、ニューラルネットワークは、監視下深層学習を用いて97%までの機会で位置を正しく分類することが見出されている。これに代えて、ニューラルネットワークは、画像に基づいて可動要素の位置を決定する時に特に正確であることが見出されている監視下畳み込みニューラルネットワークとすることができる。
本発明の第5の態様により、本発明の第4の態様の方法によって発生された訓練データを含むコンピュータ可読媒体を提供する。
ここで、本発明を添付図面を参照して単に一例として以下に説明するものとする。
バケットの位置を決定するためのセンサを有するバックホーローダーを示す図である。 バックホーローダーが機械学習システムを使用してカメラからの画像に基づいてバケットの位置を決定するカメラと機械学習システムとを有するバックホーローダーを示す図である。 機械学習システムを示す図である。 図3aの機械学習システムのプロセッサによって実施される機械学習処理を示す図である。 図2のバックホーローダーによって使用されるニューラルネットワークを訓練するための訓練データを発生させる訓練機械を示す図である。 訓練データ収集システムを示す図である。 ニューラルネットワーク訓練コンピュータを示す図である。 2台のカメラを有するバックホーローダーを示す図である。
図1は、いくつかのセンサを使用して可動要素の位置を決定する従来技術の作業機械を示している。この場合に、作業機械は、バックホーローダー100である。バックホーローダー100は、トラクター状の本体110を有し、バックホー120の形態の可動要素が、本体110の後部に装着されている。バックホー120は、ブーム124とジッパー126とである2つのセクションを有するアーム122を有する。ブーム124は、本体110の後部にピボット回転可能に接続される。ブーム124は、ジッパー126にピボット回転可能に接続される。バケット127は、ジッパー126の端部にピボット回転可能に接続される。油圧アクチュエータ128は、溝堀りのようなあらゆる与えられたタスクに必要なバケット127の位置を制御するためにブーム124、ジッパー126、及びバケット127のピボット回転を制御する。
各油圧アクチュエータ128は、油圧アクチュエータ128の伸長可能部分130の伸長を測定するための線形エンコーダを組み込むセンサ129を有する。各センサ129は、油圧アクチュエータ128の伸長可能部分130に隣接して固定される(例えば、センサ129は、油圧アクチュエータ128のハウジングに固定することができる)。各センサ129は、油圧アクチュエータ128の伸長可能部分130の伸長を測定するために、隣接する油圧アクチュエータ128の伸長可能部分130上にマーク付けされた目盛り131を読み取る。
バックホーローダー100に対するバケット127の位置及び向き(又はバケット127の縁部125のようなバケット127上の1又は2以上の望ましい点の位置及び向き)は、センサ129で測定された油圧アクチュエータ128の伸長及びバックホー220の形状の知識から導出することができる。しかし、センサ129は、複雑で高価であり、製造コストの増加をもたらす。センサ129は、壊れやすい精密機器の精巧な品目であり、センサ129の修理は、高価であり、壊れている間はセンサ129が修理されるまでバケット127の位置及び向きを決定することはできず、ユーザの満足度を低減する。更に、バックホーローダー100は、通常、汚れて埃っぽい環境で作動する。すなわち、ごみ又はちりが目盛り131を曖昧にしてセンサ129の作動と精度に影響を及ぼす可能性がある。
図2は、バケット127の位置を決定するのにセンサ129又は目盛り131を必要としない本発明によるバックホーローダー200を示している。
図2に示されているバックホーローダー200は、バックホーローダー200がどのセンサ129も持たず、かつ油圧アクチュエータ228の伸長可能部分230上にマーク付けされた目盛り131を有する必要がないことを除いて図1のバックホーローダー100と同じである。代わりに、図2のバックホーローダー200は、バックホーローダー100のキャブの内側に装着された後向きカメラ242を有する。
カメラ242は、バックホー220が行うことができる全範囲の作動中にカメラ242がバックホー220又はバックホー220の少なくとも一部を見るのに十分である視野角を有するバックホー220の良好な視野を有する。
カメラ242は、ニューラルネットワーク上でカメラ242からの画像を処理してセンサ129を必要とせずにカメラ242からの画像のみを使用してバケット227の位置を決定するニューラルネットワークシステム240に結合される。
カメラ242は、ニューラルネットワークがカメラ242が見ることができるバックホー220の部分からバケットの位置を推測することができる場合があるので、バケット227の位置を決定するのにバックホー220全体を見ることができることが必ずしも必要ではない。一部の場合では、バケット227は、カメラ242の視野から外れる場合がある(例えば、溝を掘る時に、バケット227は、溝内の視野から外れる場合がある)。これは、カメラ242がバケット227の位置及び向きを直接に見ることができないことになることを意味する。しかし、バケット227の位置及び向きは、画像内の他の情報から推測することができる。例えば、油圧機器の位置、向き、及び伸長(油圧ラムの伸長可能部分230の伸長のような)、又はバケット227を回転させるリンケージ270及び272の角度位置である。
カメラ242は、ニューラルネットワーク上でカメラ242からの画像を処理してセンサ129の必要なくカメラ242からの画像のみを使用してバケット227の位置を決定するニューラルネットワークシステム240に結合される。
図3aは、ニューラルネットワークシステム240をより詳細に示している。ニューラルネットワークシステム240は、カメラ242からバックホー220の画像を受信するプロセッサ244を有する。プロセッサ244は、図3bにより詳細に示されているニューラルネットワーク処理260を実行する。
図3bは、ニューラルネットワークシステム240内のプロセッサ244によって実施されるニュートラルネットワーク処理260を示している。段階261では、カメラ242から画像が得られる。段階262では、画像は、以前にバックホー220の画像からバケット227の位置を決定するように訓練されたニューラルネットワークアルゴリズムを通して処理される。ニューラルネットワークアルゴリズムは、段階263で、バケット227の決定した位置を出力し、段階264で、バケット227の位置が出力デバイス(ディスプレイ246、ストレージデバイス248、及び通信インタフェース250のうちの1又は2以上のような)に通信される。
バケット227の位置は、ディスプレイ246(ステアリングホイールの隣のバックホーローダー200のキャブの内側に位置付けられる)上でオペレータに表示することができる。バケット227の位置は、後の使用又は記録保持のためにストレージデバイス248に格納することができる。バケット227の位置は、通信インタフェース250にわたってアームコントローラのような別のデバイスに送信することができる。
バケット227の位置は、例えば、バケット227が地面からどれだけ離れているかを示すことができ、特定の深さの溝を掘るオペレータに支援を提供し、作動境界を提供し、又はバケット227の完全に自動化された制御のために使用することができる。バケット227の位置は、通常はバックホーローダー200に対して決定されることになる。しかし、現実世界でのバケット227の位置は、バックホーローダー200に対するバケット227の位置が、現実世界でのバックホーローダー200の位置を示すデータ(全地球測位システムデータのような)とバックホーローダー200の形状の知識とに組み合わされた時に決定することができる。
ニューラルネットワークが、センサなしでカメラ242を用いて撮られたバックホー220の画像のみを使用してバケット227の位置を正確に決定することができるように、十分な訓練データでニューラルネットワークを訓練する効率的な方法を見出す必要がある。訓練データは、バケット227の位置が既知であるバックホー220の画像を含める必要がある。次に、そのような訓練データは、ニューラルネットワークの監視下機械学習を実行するのに使用することができる。本出願人は、訓練車両がバックホーローダーの通常の日常の作動を実行する時に訓練データを収集するように適応された訓練車両を使用することにより、大量の訓練データを収集する特に効率的な方法を見出した。
図4は、ニューラルネットワークがバックホー220の画像だけでバケット227の位置を正確に決定することを可能にするようにニューラルネットワークの機械学習を監視するための訓練データを発生させるのに使用することができる訓練機械300の例を示している。
ニューラルネットワークがバックホー220の画像からバケット227の位置を正確に認識するために、同じタイプのアタッチメントを有する同じタイプの作業機械に対して発生された訓練データを使用してニューラルネットワークが訓練されていたことが重要である。従って、訓練機械300は、バックホーローダー200と同じタイプのバックホーローダーであり、アーム322を構成するブーム324及びジッパー326は、アーム222を構成するブーム224及びジッパー226と同じ寸法及び移動範囲を有し、バケット327は、バケット227と同じ寸法及び移動範囲を有する。
訓練機械300は、バックホー320の視野を有するキャブの内側に装着された後向きカメラ342を有する。訓練された状態でニューラルネットワークがセンサの必要なく単にバックホー220の画像に基づいてバケット227の位置を正確に決定することができることになる可能性を高めるために、訓練機械300上のカメラ342は、バックホーローダー200上のカメラ242と同じ位置及び向きに位置付けられ、かつ同じ視野角を与える。
訓練機械300は、標準的なバックホーローダーとして作動され、バックホーローダーの典型的な通常作動を実施するために派遣される。例えば、訓練機械300は、建築現場で作動し、パイプのための溝を掘るなどの典型的な建設作動を請け負うことができる。訓練機械300が通常作動を実施している間に、訓練機械300は、ニューラルネットワークを訓練するための訓練データを収集している。
訓練機械300は、バケット327の位置を決定するためのいくつかのセンサ329を有する。この例では、訓練機械300上の各油圧アクチュエータ328は、油圧アクチュエータ328の伸縮部分330の伸長を測定するための線形エンコーダを組み込むセンサ329を有する。各センサ329は、油圧アクチュエータの伸縮部分330に隣接して固定される(この場合は油圧アクチュエータ328のハウジングに固定される)。各センサ329は、油圧アクチュエータ328の伸縮部分330の伸長を測定するために、隣接する油圧アクチュエータ328の伸縮部分330上にマーク付けされた目盛り331を読み取る。センサ329からの測定値は、訓練機械300に対するバケット327の位置を導出するのに使用することができる。これに加えて又はこれに代えて、訓練機械300は、バケット327の位置を導出するのに使用することができる回転エンコーダを組み込む1又は2以上のセンサを有することができる。各回転エンコーダは、アーム320の個々のセクション間(例えば、本体310とブーム325間又はブーム324とジッパー326間)、又はアーム320とバケット327間の回転角度を決定する。
図5は、訓練データ収集システム340を示している。訓練機械300がタスクを実施している間の規則的間隔で、カメラ342は、バックホー320又はバックホー320の少なくとも一部の画像を取り込む。バックホー320の各画像は、訓練機械300のキャブの内側に位置付けられたデータ収集システム340を訓練する際にプロセッサ344によって受信される。プロセッサ344はまた、センサ329からセンサデータを受信する。プロセッサ344は、各画像を対応するセンサデータと同期させる(例えば、各画像上のタイムスタンプを最も近いタイムスタンプを有するセンサデータと位置合わせする)。プロセッサ344は、対応するセンサデータから各画像に示されているバケット327の位置を決定する。バックホー320の各画像は、包括的な訓練データセットを構築するためにバケット327の対応する位置と共にストレージデバイス348上に格納される。
訓練データは、訓練データがニューラルネットワーク訓練コンピュータ640に転送される前に、訓練データ収集システム340のストレージデバイス348に格納される。ニューラルネットワークト訓練コンピュータ640への訓練データの転送は、訓練車両300からのストレージデバイス348の取り外しを伴うか(ストレージデバイス348は、取り外しを容易にするために訓練車両300のキャブ内の取外し可能なキャディに取り付けることができる)、又は取外し可能なストレージデバイスをソケット352に接続して(ソケット352は、キャブの内側に位置付けることができ、例えば、携帯型ハードディスク又はメモリスティックが接続することができるUSBインタフェースとすることができる)訓練データを取外し可能なストレージデバイスに転送する。これに代えて、訓練データ収集システム340は、ニューラルネットワーク訓練コンピュータに又はサーバにかに関わらず直接に有線又は無線通信ネットワーク上で訓練データを送信する通信インタフェース350を有することができる。
バックホーローダー200を実行することが求められる場合がある広範囲の異なるタスクを通して訓練機械300を作動し、バックホーローダー200が体験する場合がある広範囲の異なる作動条件(異なる現場、変動する照明条件、及びある範囲の気象条件のような)の下でこれらの異なるタスクのそれぞれを実行することが望ましい。これは、ニューラルネットワークに適切な訓練を提供する訓練データを発生させ、広範囲の組合せのタスク及び作動条件中に撮られた画像からバケット227の位置を正確に決定することができるのに重要である。
ある範囲の照明条件の下で訓練データを収集することも有利である。例えば、日中、夜間、薄明かり、夕暮、及び日の出のような1日の様々な時間及び人工照明(現場照明又はバックホーローダーに取り付けられた照明のような)の下で訓練機械300を使って訓練データが収集される。訓練車両300に取り付けられた1又は複数の照明を使用して訓練データを収集する時に、訓練車両300上の1又は複数の照明がバックホーローダー200上の1又は複数の照明と同じに置かれて角度付けされ、訓練車両300上の照明がバックホーローダー200上の照明と同じ強度を有するので有利である。訓練車両300とバックホーローダー200の間の照明の一貫性を保つことは、訓練データとバックホーローダー200のために取り込まれた画像の間の影と照明が同様であることを保証するのを支援し、ニューラルネットワークがバケット227の位置を決定することができる精度を改善する。
図6は、ニューラルネットワーク訓練コンピュータ640を示している。ニューラルネットワーク訓練コンピュータ640は、ソケット652(USBインタフェースである場合がある)に取り付けられた取外し可能ストレージデバイスから又は通信インタフェース650(有線又は無線通信ネットワークから、訓練車両300から、又はサーバから直接に訓練データを受信する)を通して訓練機械300から訓練データを受信する。訓練データは、ニューラルネットワーク訓練コンピュータ640のストレージデバイス648に格納される。
訓練データは、予測される出力(画像が撮られた時点でセンサ329を使った測定から導出されたバケット327の位置)と各々が対になった入力のセット(バックホー322の画像又はバックホー322の一部分)を提供し、ニューラルネットワークの監視下機械学習に適する訓練データをもたらす。プロセッサ644は、監視下機械学習アルゴリズムを実行し、ニューラルネットワークが以前に訓練されていない新しい画像内のバケット227の位置の正確な予測をもたらすことができるようにニューラルネットワークを訓練する。
訓練されたニューラルネットワークアルゴリズムは、ソケット652に一時的に接続される取外し可能なストレージデバイス654に転送することができる。転送された状態で、取外し可能なストレージデバイス654は、バックホーローダー200のニューラルネットワークシステム240上のソケット252に対して分離かつ接続することができる。これに代えて、訓練されたニューラルネットワークは、通信インタフェース650から有線又は無線ネットワーク上でバックホーローダー200のニューラルネットワークシステム240の通信インタフェース250に転送することができる。
訓練されたニューラルネットワークアルゴリズムは、ニューラルネットワークを初めて訓練するために又はニューラルネットワークを更新するために(例えば、ニューラルネットワークが新しいアタッチメントの位置を認識することを可能にするために)ニューラルネットワークシステム240に転送することができる。
作業機械は、1よりも多いアタッチメントを有することができ、作業機械上の各アタッチメントの位置は、各アタッチメントの画像に基づいてニューラルネットワークを使用して決定することができる。
図7は、2つのアタッチメントを有するバックホーローダー400の例を示している。バックホー220に加えて、バックホーローダー400は、アームによってバックホーローダー400の前部に取り付けられたショベル470を有する。第2のカメラ442は、アーム及びショベル470の全て又は一部を網羅する視野を有して置かれる。ニューラルネットワークは、同一のショベルを有する訓練車両からの訓練データを使用して訓練されたものである。アーム及び/又はショベル(又はアーム及び/又はショベル上のあらゆる点)の位置及び向きは、ニューラルネットワーク上でカメラ442からの画像を処理することによって決定することができる。アームは、シャベル470がカメラ442の視野外にある場合でもニューラルネットワークがショベル470の位置を識別することを支援する台形リンケージを有する。
本発明をある一定の実施形態に関して説明したが、当業者は、添付の特許請求の範囲から逸脱することなく様々な修正を行うことができることを認めるであろう。
例えば、作業機械はバックホーローダーとして及び可動要素はバックホーとアタッチメントとして説明したが、可動要素の画像から可動要素の位置を決定するためのニューラルネットワークの使用は、ニューラルネットワークが作業機械とアタッチメントの特定の組合せに対して訓練されている限り、他のタイプの可動要素を有する他のタイプの作業機械に等しく適用可能である。更に、1つだけの訓練機械を説明したが、訓練処理を迅速化するために、同じタイプの複数の訓練機械を同時に使用することができ、上述の様々な条件の下での訓練データを少ない総時間で取り込むことができることは認められるであろう。
カメラは、キャブの内側又は外側に装着することができる。カメラをキャブの内側に装着することは、盗難、カメラの損傷、又はカメラを曖昧にする汚れを防ぐことを支援することができる。
画像は、カラー画像又はグレースケール画像とすることができる。カラー画像は、ニューラルネットワークのよりロバストな信頼性の高い挙動に至り、信頼性の高い位置決定に至る。グレースケール画像は、より高速な訓練が望まれて精度をそれほど問題にしない場合に好ましいと考えられる。
グレースケール画像を使用する更に別の利点は、ニューラルネットワークが、ニューラルネットワークが訓練された同じ色を有する作業機械の認識に限定されることにならず、かつニューラルネットワークの処理速度を増大することができるということである。
ニューラルネットワークは、監視下深層学習ニューラルネットワーク又は監視下畳み込みニューラルネットワークとすることができる。本発明は、ニューラルネットワークに関して説明したが、本発明は、監視下機械学習に適する他の種類の機械学習アルゴリズムを用いて実施することができると考えられる。
200 バックホーローダー
220 バックホー
222 アーム
240 ニューラルネットワークシステム
242 カメラ

Claims (15)

  1. 作業機械であって、
    本体及び可動要素を含み、
    前記可動要素は、該本体に対して可動であり、
    前記作業機械は、さらに、
    前記可動要素の少なくとも一部分の画像を取り込むように配置されたカメラと、
    可動要素の位置を該可動要素の画像から決定するように訓練された機械学習アルゴリズムを実行するプロセッサと、
    を含み、
    前記機械学習アルゴリズムは、前記カメラから該画像を受信して該画像内の該可動要素の該位置を決定し、
    前記機械学習アルゴリズムは、訓練データを使用して既に訓練されたものであり、
    前記訓練データは、可動要素の少なくとも一部分の複数の画像を含み、該複数の画像の各画像が、それぞれの該画像内の該可動要素の前記位置を示す対応するセンサデータを有し、
    前記訓練データは、カメラと、センサと、本体と、該本体に対して可動である可動要素とを有する作業機械を含む訓練機械を使用して既に発生されていたものであり、
    前記複数の画像は、前記カメラを使用して既に取り込まれていたものであり、前記センサデータは、前記センサを使用して既に決定されていたものである、ことを特徴とする作業機械。
  2. 前記可動要素の前記位置は、作業機械又は現実世界に対する該可動要素の位置であることを特徴とする請求項1に記載の作業機械。
  3. 前記機械学習アルゴリズムは、ニューラルネットワークを含むことを特徴とする請求項1又は請求項2のいずれか1項に記載の作業機械。
  4. 前記作業機械は、採掘又は資材取り扱い機能を有する建設及び農業機械のうちの1つであることを特徴とする請求項1から請求項3のいずれか1項に記載の作業機械。
  5. 前記建設及び農業機械は、バックホーローダー、トラクター、フォークリフト、スキッドステアローダー、掘削機、及び伸縮自在ハンドラーのうちの1つであることを特徴とする請求項4に記載の作業機械。
  6. 前記可動要素は、アタッチメントを含むことを特徴とする請求項1から請求項5のいずれか1項に記載の作業機械。
  7. 前記アタッチメントは、土工工事アタッチメント、資材取り扱いアタッチメント、林業アタッチメント、廃棄物処理アタッチメント、又は農業アタッチメントのうちの1つであることを特徴とする請求項6に記載の作業機械。
  8. 前記プロセッサは、前記機械学習アルゴリズムに対する更新を受信するように構成され、
    前記更新は、前記機械学習アルゴリズムを訓練して新しいタイプのアタッチメントの位置を決定するように構成される、
    ことを特徴とする請求項6又は請求項7のいずれか1項に記載の作業機械。
  9. 前記機械学習アルゴリズムは、訓練機械によって発生された訓練データを使用して既に訓練されていることを特徴とする請求項1から請求項8のいずれか1項に記載の作業機械。
  10. 前記訓練データは、実際の作動の下で前記訓練機械を作動させることによって発生されていたものであることを特徴とする請求項9に記載の作業機械。
  11. 前記訓練機械は、作業機械と同じタイプのものであり、
    前記可動要素は、アタッチメントを含み、前記訓練機械は、作業機械と同じタイプのアタッチメントを含む、
    ことを特徴とする請求項9又は請求項10のいずれか1項に記載の作業機械。
  12. 前記カメラは、前記訓練機械上のカメラと同じ位置及び向きに配置され、該カメラは、該訓練機械上のカメラと同じ視野角を与えるように配置されることを特徴とする請求項9から請求項11のいずれか1項に記載の作業機械。
  13. 前記カメラは、前記可動要素の移動範囲を網羅する視野角を与えるように配置されることを特徴とする請求項1から請求項12のいずれか1項に記載の作業機械。
  14. 前記可動要素を移動するように配置された油圧機器を更に含み、
    前記カメラは、前記油圧機器の少なくとも一部分の視野を与えるように配置される、
    ことを特徴とする請求項1から請求項13のいずれか1項に記載の作業機械。
  15. 前記プロセッサは、前記決定された位置を別のデバイスに通信するか又は該決定された位置をディスプレイ上に表示するように構成されることを特徴とする請求項1から請求項14のいずれか1項に記載の作業機械。
JP2020512096A 2017-05-05 2018-05-04 作業機械 Active JP7240382B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
GB1707274.5A GB2562122B (en) 2017-05-05 2017-05-05 Training machine
GB1707274.5 2017-05-05
GB1707273.7A GB2562121B (en) 2017-05-05 2017-05-05 Working machine
GB1707273.7 2017-05-05
PCT/GB2018/051218 WO2018203091A1 (en) 2017-05-05 2018-05-04 Working machine

Publications (2)

Publication Number Publication Date
JP2020520425A JP2020520425A (ja) 2020-07-09
JP7240382B2 true JP7240382B2 (ja) 2023-03-15

Family

ID=62148412

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020512095A Pending JP2020520424A (ja) 2017-05-05 2018-05-04 訓練機械
JP2020512096A Active JP7240382B2 (ja) 2017-05-05 2018-05-04 作業機械

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020512095A Pending JP2020520424A (ja) 2017-05-05 2018-05-04 訓練機械

Country Status (5)

Country Link
US (2) US11560693B2 (ja)
EP (2) EP3619366B1 (ja)
JP (2) JP2020520424A (ja)
KR (2) KR20200006554A (ja)
WO (2) WO2018203091A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10655421B2 (en) * 2014-10-20 2020-05-19 Worldwide Oilfield Machine, Inc. Compact cutting system and method
JP7166088B2 (ja) * 2018-06-28 2022-11-07 株式会社小松製作所 作業車両による作業を判定するためのシステム、方法、及び学習済みモデルの製造方法
WO2020105614A1 (ja) * 2018-11-19 2020-05-28 住友建機株式会社 ショベル、ショベルの制御装置
US11384508B2 (en) * 2019-02-12 2022-07-12 Caterpillar Inc. Automated machine impeller clutch
KR102695638B1 (ko) * 2019-03-13 2024-08-16 에이치디현대인프라코어 주식회사 건설기계의 트랙 장력 모니터링 방법 및 시스템
US11447935B2 (en) * 2019-04-30 2022-09-20 Deere & Company Camera-based boom control
US12006664B2 (en) * 2019-05-24 2024-06-11 Kawasaki Jukogyo Kabushiki Kaisha Construction machinery with learning function
JP2021143498A (ja) * 2020-03-11 2021-09-24 株式会社小松製作所 操作システム
US11718972B2 (en) 2020-06-03 2023-08-08 Deere & Company Image-based attachment identification and position detection
JP7458262B2 (ja) 2020-07-29 2024-03-29 株式会社Ihiエアロスペース 建設機械のアーム位置検出システム
KR102508438B1 (ko) * 2020-08-07 2023-03-10 주식회사 긴트 트랙터 운용 시스템 및 이의 운용 방법
JP2022062950A (ja) * 2020-10-09 2022-04-21 コベルコ建機株式会社 作業機械の制御装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080005938A1 (en) 2005-10-28 2008-01-10 Leica Geosystems Ag Method and apparatus for determining the loading of a bucket
JP2008240361A (ja) 2007-03-27 2008-10-09 Komatsu Ltd 建設機械の省燃費運転支援方法および省燃費運転支援システム
WO2015162710A1 (ja) 2014-04-23 2015-10-29 株式会社日立製作所 掘削装置
US20150329333A1 (en) 2012-12-17 2015-11-19 Liebherr-Components Biberach Gmbh Tower slewing crane
WO2016183661A1 (en) 2015-05-15 2016-11-24 Motion Metrics International Corp Method and apparatus for locating a wear part in an image of an operating implement
WO2017010212A1 (ja) 2015-07-15 2017-01-19 株式会社日立製作所 作業機械の操作システムおよび作業機械の操作システムを備えた作業機械
JP2017053627A (ja) 2015-09-07 2017-03-16 Kyb株式会社 角度検出装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06314103A (ja) 1993-04-30 1994-11-08 Fujitsu Ltd 制御装置と能動的センシング装置
JPH07291582A (ja) * 1994-04-28 1995-11-07 Hitachi Ltd 位置決め認識装置付きクレーン
JPH08289613A (ja) 1995-04-21 1996-11-05 Mitsubishi Agricult Mach Co Ltd トラクタの耕深制御装置
JP2001142506A (ja) * 1999-11-16 2001-05-25 Hitachi Ltd 操作支援機能付き車両
US7532967B2 (en) 2002-09-17 2009-05-12 Hitachi Construction Machinery Co., Ltd. Excavation teaching apparatus for construction machine
JP2007016403A (ja) * 2005-07-05 2007-01-25 Hitachi Constr Mach Co Ltd 作業機械のカメラ制御装置
US7949449B2 (en) * 2007-12-19 2011-05-24 Caterpillar Inc. Constant work tool angle control
AU2013359057A1 (en) 2012-12-14 2015-07-02 The Trustees Of Columbia University In The City Of New York Markerless tracking of robotic surgical tools
US9691025B2 (en) 2014-09-16 2017-06-27 Caterpillar Inc. Machine operation classifier
JP6343573B2 (ja) * 2015-02-25 2018-06-13 株式会社日立製作所 操作支援システムおよび操作支援システムを備えた作業機械
US20170103506A1 (en) * 2015-10-09 2017-04-13 Caterpillar Inc. Component health monitoring system using computer vision
US10106072B2 (en) * 2015-10-30 2018-10-23 Deere & Company Work vehicles including implement-responsive optical systems
US10011976B1 (en) * 2017-01-03 2018-07-03 Caterpillar Inc. System and method for work tool recognition

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080005938A1 (en) 2005-10-28 2008-01-10 Leica Geosystems Ag Method and apparatus for determining the loading of a bucket
JP2008240361A (ja) 2007-03-27 2008-10-09 Komatsu Ltd 建設機械の省燃費運転支援方法および省燃費運転支援システム
US20150329333A1 (en) 2012-12-17 2015-11-19 Liebherr-Components Biberach Gmbh Tower slewing crane
WO2015162710A1 (ja) 2014-04-23 2015-10-29 株式会社日立製作所 掘削装置
WO2016183661A1 (en) 2015-05-15 2016-11-24 Motion Metrics International Corp Method and apparatus for locating a wear part in an image of an operating implement
WO2017010212A1 (ja) 2015-07-15 2017-01-19 株式会社日立製作所 作業機械の操作システムおよび作業機械の操作システムを備えた作業機械
JP2017053627A (ja) 2015-09-07 2017-03-16 Kyb株式会社 角度検出装置

Also Published As

Publication number Publication date
WO2018203091A1 (en) 2018-11-08
EP3619366B1 (en) 2024-07-24
JP2020520425A (ja) 2020-07-09
WO2018203089A1 (en) 2018-11-08
US11549239B2 (en) 2023-01-10
US20200071913A1 (en) 2020-03-05
EP3619366A1 (en) 2020-03-11
EP3619367A1 (en) 2020-03-11
EP3619367B1 (en) 2021-11-03
US20210140146A1 (en) 2021-05-13
KR20200006555A (ko) 2020-01-20
JP2020520424A (ja) 2020-07-09
US11560693B2 (en) 2023-01-24
KR20200006554A (ko) 2020-01-20

Similar Documents

Publication Publication Date Title
JP7240382B2 (ja) 作業機械
US7881845B2 (en) Loader and loader control system
AU2020275694B2 (en) Ground engaging tool monitoring system
US9322148B2 (en) System and method for terrain mapping
US11466984B2 (en) Bucket get monitoring system
US9828781B2 (en) Fine implement control system using relative positioning
US10163033B2 (en) Vehicle classification and vehicle pose estimation
GB2562122A (en) Training machine
US20220307233A1 (en) System comprising work machine, and work machine
WO2021019951A1 (ja) 建設機械の作業情報生成システム及び作業情報生成方法
JP2019190193A (ja) 作業機械
CN210134942U (zh) 掘进机截割控制装置及悬臂掘进机
GB2562121A (en) Working machine
US20230339402A1 (en) Selectively utilizing multiple imaging devices to maintain a view of an area of interest proximate a work vehicle
US20230279644A1 (en) Work vehicle having a work implement and sensors for maintaining a view of an area of interest throughout movement of the work implement
RU2794881C1 (ru) Система мониторинга орудия для земляных работ и ее электронный контроллер
US20240247462A1 (en) System and method of automated setting of elevation reference for continuous grade control
AU2022218543A1 (en) Laser reference tracking and target corrections for work machines

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220311

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221028

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221028

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20221114

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221219

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230303

R150 Certificate of patent or registration of utility model

Ref document number: 7240382

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150