JP7282002B2 - 情報処理装置、情報処理システム、情報処理方法、コンピュータプログラム、建設機械 - Google Patents

情報処理装置、情報処理システム、情報処理方法、コンピュータプログラム、建設機械 Download PDF

Info

Publication number
JP7282002B2
JP7282002B2 JP2019164810A JP2019164810A JP7282002B2 JP 7282002 B2 JP7282002 B2 JP 7282002B2 JP 2019164810 A JP2019164810 A JP 2019164810A JP 2019164810 A JP2019164810 A JP 2019164810A JP 7282002 B2 JP7282002 B2 JP 7282002B2
Authority
JP
Japan
Prior art keywords
unit
working
information
data
machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019164810A
Other languages
English (en)
Other versions
JP2021042569A (ja
Inventor
裕平 西田
富雄 志垣
謙 大前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nabtesco Corp
Original Assignee
Nabtesco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nabtesco Corp filed Critical Nabtesco Corp
Priority to JP2019164810A priority Critical patent/JP7282002B2/ja
Priority to KR1020200113664A priority patent/KR20210030875A/ko
Priority to CN202010939634.9A priority patent/CN112482460B/zh
Publication of JP2021042569A publication Critical patent/JP2021042569A/ja
Application granted granted Critical
Publication of JP7282002B2 publication Critical patent/JP7282002B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/28Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets
    • E02F3/30Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets with a dipper-arm pivoted on a cantilever beam, i.e. boom
    • E02F3/32Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets with a dipper-arm pivoted on a cantilever beam, i.e. boom working downwardly and towards the machine, e.g. with backhoes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/36Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light
    • G01P3/38Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light using photographic means
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/28Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets
    • E02F3/36Component parts
    • E02F3/42Drives for dippers, buckets, dipper-arms or bucket-arms
    • E02F3/43Control of dipper or bucket position; Control of sequence of drive operations
    • E02F3/435Control of dipper or bucket position; Control of sequence of drive operations for dipper-arms, backhoes or the like
    • E02F3/437Control of dipper or bucket position; Control of sequence of drive operations for dipper-arms, backhoes or the like providing automatic sequences of movements, e.g. linear excavation, keeping dipper angle constant
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Mining & Mineral Resources (AREA)
  • Structural Engineering (AREA)
  • Civil Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Pathology (AREA)
  • Electromagnetism (AREA)
  • Power Engineering (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Paleontology (AREA)
  • Multimedia (AREA)
  • Component Parts Of Construction Machinery (AREA)
  • Operation Control Of Excavators (AREA)

Description

本発明は、情報処理装置、情報処理システム、情報処理方法、コンピュータプログラムおよび建設機械に関する。
作業装置を撮像するカメラを備えた建設機械が知られている。例えば、特許文献1には、旋回体に設置されて作業装置を撮像するカメラと、相対角度を検出する角度検出部と、姿勢を特定する姿勢特定部とを備えた建設機械が記載されている。この建設機械は、カメラの画像に基づいて抽出した各リンクのエッジからリンク同士の相対角度を検出し、その相対角度に基づいて、旋回体に対する作業装置の姿勢を特定する。
特開2017-053627号公報
本発明者らは、油圧等の動力で駆動されるブーム・アームとアタッチメントとを備える建設機械について、以下の認識を得た。
ある建設機械は、動力を利用してブームとアームなどからなる腕機構を駆動し、腕機構に取り付けられたバケット等のアタッチメントを動かして所定の施工を行う。例えば、地面を施工する際には、設計図に従って正確な施工を短時間で効率よく行うことが望ましい。しかし、アタッチメントを移動させるとき、その移動速度が速すぎると、オーバーシュートが大きくなり、位置決め精度が低下する。逆に、移動速度が遅すぎると移動時間が長くなり作業効率が低下する。このため、アタッチメントの移動精度を向上させる観点から、アタッチメントの移動速度を検知して精密な機体制御を行う必要がある。
移動速度を検知するために、腕機構およびアタッチメントの各部に位置センサを設け、その検知結果の時間当りの変化から速度を推定することが考えられる。しかし、この構成では、センサとその配線を設けるために構成が複雑になる。また、センサや配線のコストが余計にかかるためコスト的にも不利である。移動速度を検知する観点からは、特許文献1に記載の建設機械は、この課題に十分に対処しているとはいえない。このような課題は、上述の建設機械に限らず他の種類の作業機械についても生じうる。
本発明は、こうした課題に鑑みてなされたものであり、簡単な構成で作業部の移動速度を推定可能な作業機械の情報処理装置を提供することを目的の一つとしている。
上記課題を解決するために、本発明のある態様の情報処理装置は、作業機械の作業部の参照画像のデータと作業機械の作業部の姿勢のデータとを対応づけて生成された対応情報を記憶している記憶部と、参照画像のデータと比較するために作業機械の作業部の画像のデータを取得する取得部と、取得部で取得された画像のデータと対応情報とに基づいて作業機械の作業部の速度に関する速度情報を生成する速度推定部とを備える。
なお、以上の任意の組み合わせや、本発明の構成要素や表現を方法、装置、プログラム、プログラムを記録した一時的なまたは一時的でない記憶媒体、システムなどの間で相互に置換したものもまた、本発明の態様として有効である。
本発明によれば、簡単な構成で作業部の移動速度を推定可能な作業機械の情報処理装置を提供できる。
第1実施形態の情報処理装置を備えた作業機械を概略的に示す側面図である。 図1の情報処理装置を概略的に示すブロック図である。 図1の作業機械の作業部の姿勢を説明する説明図である。 図1の情報処理装置の学習データを示す図である。 図1の情報処理装置の姿勢推定処理を説明する説明図である。 図1の情報処理装置の速度推定処理および加速度推定処理を説明する説明図である。 図1の情報処理装置の姿勢情報と速度情報と加速度情報の一例を示す図である。 図1の情報処理装置の異常検知部を概略的に示すブロック図である。 図1の情報処理装置の外観検知部を概略的に示すブロック図である。 図1の情報処理装置の動作を示すフローチャートである。 図1の情報処理装置の動作を示すフローチャートである。 図1の情報処理装置の動作を示すフローチャートである。 図1の情報処理装置の動作を示すフローチャートである。 第5実施形態の情報処理システムを使用した作業機械を概略的に示すブロック図である。
以下、本発明を好適な実施形態をもとに各図面を参照しながら説明する。実施形態および変形例では、同一または同等の構成要素、部材には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面における部材の寸法は、理解を容易にするために適宜拡大、縮小して示される。また、各図面において実施形態を説明する上で重要ではない部材の一部は省略して表示する。
また、第1、第2などの序数を含む用語は多様な構成要素を説明するために用いられるが、この用語は一つの構成要素を他の構成要素から区別する目的でのみ用いられ、この用語によって構成要素が限定されるものではない。
[第1実施形態]
図面を参照して、本発明の第1実施形態の作業機械の情報処理装置10の構成について説明する。図1は、第1実施形態の情報処理装置10を備えた作業機械100を概略的に示す側面図である。図2は、情報処理装置10を概略的に示すブロック図である。
情報処理装置10は、画像情報取得部12と、環境情報取得部14と、姿勢情報取得部16と、制御部20と、記憶部30とを備える。情報処理装置10は、機械学習時と、機械学習時でない通常の動作時(以下、「非学習動作時」という)とを有する。情報処理装置10は、機械学習時に、作業機械100の作業部40の各部の学習画像情報と学習姿勢情報とに基づいて姿勢推定モデルを生成できる。この姿勢推定モデルは、対応情報を例示している。情報処理装置10は、非学習動作時に、リアルタイムな画像情報と姿勢推定モデルとに基づいて作業部40の姿勢を推定できる。作業機械100は、情報処理装置10で推定した作業部40の姿勢に基づいて、作業部40の動作を制御することができる。
画像情報取得部12は、作業部40の画像のデータを取得する。環境情報取得部14は、作業機械100の周囲環境に関する情報を取得する。姿勢情報取得部16は、作業部40の姿勢に関するデータ(以下、「姿勢のデータ」という)を取得する。制御部20は、姿勢推定モデルの生成と、作業部40の姿勢推定に関わる種々のデータ処理を実行する。記憶部30は、制御部20により参照または更新されるデータを記憶する。先に、作業機械100の構成を説明し、その他の構成については後述する。
本実施形態の作業機械100は、バケット46を移動させて作業を行う建設機械であり、いわゆるパワーショベルとして機能する。作業機械100は、下部走行部36と、上部車体部34と、腕機構48と、バケット46とを有する。本実施形態において腕機構48と、バケット46とは作業部40を構成する。下部走行部36は、無限軌道などにより所定方向に走行可能に構成される。上部車体部34は、下部走行部36に搭載されている。上部車体部34と作業部40とは、旋回駆動部60により下部走行部36に対して旋回軸Laまわりに旋回可能に構成される。旋回駆動部60は、例えば、旋回モータ(不図示)と旋回ギア(不図示)とで構成できる。上部車体部34には、操縦室38が設けられる。
操縦室38には、作業部40を操縦する操作部54が設けられる。操作部54から操作が入力されると、その操作に応じて複数の油圧バルブ58が開閉する。油圧バルブ58の開閉に応じて、油圧ポンプ(不図示)から供給される作動油が複数の油圧シリンダ56に送出される。油圧シリンダ56は、腕機構48の基端側から先端側に順に配置される油圧シリンダ56a、56b、56cを含む。油圧シリンダ56a、56b、56cは、作動油の送出量に応じて伸縮する。操縦室38には、後述する異常検知部や外観検知部からの情報などが表示される表示部38dが設けられる。
また、本実施形態の作業機械100は、上位の制御システムからの指令に基づき作業部40の動作を制御する作業機械制御部62を有する。作業機械制御部62については後述する。
腕機構48の基端部は、一例として、上部車体部34において操縦室38の右側に設けられる。腕機構48は、例えば、上部車体部34から前方に延びるブーム42とアーム44とを含む。腕機構48の先端側にはバケット46が取り付けられる。このように、作業機械100は、操縦者の操縦に応じて作業部40の姿勢を変化させることによりバケット46を駆動して目的の作業を行うことができる。また、作業機械100は、上部車体部34と作業部40とを旋回させることにより、バケット46を三次元的に移動させることができる。
図3は、作業部40の姿勢を説明する説明図である。油圧シリンダ56a、56b、56cは、油圧に応じてその伸縮長L1、L2、L3を変えることができる。ブーム42は、油圧シリンダ56aの伸縮により、上部車体部34側の基端部を中心に先端部が上下に回動するように構成される。アーム44は、油圧シリンダ56bの伸縮により、ブーム42側の基端部を中心に先端部が前後に回動するように構成される。バケット46は、油圧シリンダ56cの伸縮により、アーム44側の基端部を中心に先端部が前後または上下に回動するように構成される。
作業部40は、油圧シリンダ56a、56b、56cの伸縮長L1、L2、L3を変化させることにより、ブーム42、アーム44およびバケット46を接続する関節部の屈曲角度θ1、θ2、θ3を変化させることができる。一例として、角度θ1は、ブーム42の水平面に対する角度であり、角度θ2は、ブーム42とアーム44を接続する関節部の屈曲角度であり、角度θ3は、アーム44とバケット46を接続する関節部の屈曲角度である。
作業部40の姿勢は、ブーム42、アーム44およびバケット46の位置および相対角度によって定義できる。ブーム42、アーム44およびバケット46の形状が一定として、作業部40の姿勢は、ブーム42、アーム44およびバケット46の各部の大きさと、油圧シリンダ56a、56b、56cの伸縮長L1、L2、L3または屈曲角度θ1、θ2、θ3に基づいて幾何学演算により特定できる。
図2に戻る。図2で示す各ブロックは、ハードウェア的には、コンピュータのプロセッサ、CPU、メモリをはじめとする素子や電子回路、機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、当業者には理解されるところである。
画像情報取得部12を説明する。本実施形態の画像情報取得部12は、作業部40を撮像する画像センサを有する。画像情報取得部12は、後述する機械学習時には、作業部40を撮像した撮像結果を画像のデータとして制御部20に提供する。以下、機械学習時に取得する画像のデータを「参照画像のデータGs」という。画像情報取得部12は、非学習動作時にも、作業部40を撮像した撮像結果を画像のデータとして制御部20に提供する。以下、非学習動作時に取得する画像のデータを単に「画像のデータGj」という。画像のデータGjはリアルタイムな画像のデータであってもよい。
画像情報取得部12は、作業部40と一体的に旋回するように構成されている。具体的には、画像情報取得部12は、操縦室38の屋根上において作業部40を撮像可能に配置されている。作業部40が旋回するとき、画像情報取得部12は作業部40と一体的に移動するので、旋回しても作業部40との相対的な位置関係は変化しない。
姿勢情報取得部16を説明する。本実施形態の姿勢情報取得部16は、油圧シリンダ56a、56b、56cの伸縮長L1、L2、L3を取得するストロークセンサ16a、16b、16cを含む。姿勢情報取得部16は、機械学習時に取付けられ、非学習動作時には取外される。姿勢情報取得部16は、機械学習時に伸縮長L1、L2、L3のデータを制御部20に提供する。
環境情報取得部14を説明する。画像のデータを取得する際に、天候などの周囲環境が異なると、画像の明るさや色温度も異なり、このことによって姿勢推定の誤差が増える要因になる。そこで、本実施形態では、環境情報取得部14によって周囲環境に関する情報を取得し、その取得結果に応じて画像のデータを補正する。本実施形態の環境情報取得部14は、周囲の明るさを取得する照度センサと色温度を取得する色温度センサとを含む。環境情報取得部14は、取得結果を環境情報Mpとして制御部20に提供する。この例では、環境情報取得部14は、操縦室38の屋根上に配置されている。
記憶部30を説明する。記憶部30は、モデル記憶部32を含む。モデル記憶部32は、参照画像のデータGsと姿勢のデータとをもとに公知の機械学習により生成されたモデルであって、作業部40の姿勢を推定する姿勢推定モデルを記憶する。姿勢推定モデルは、入力および出力のデータ形式が予め定められた関数とも言える。実施形態の姿勢推定モデルには、画像のデータGjが入力される。また、実施形態の姿勢推定モデルは、その画像データに対応する推定姿勢に関する情報を出力する。なお、姿勢推定モデルの生成手法については後述する。
制御部20を説明する。制御部20は、モデル生成部22と、画像情報受付部20aと、姿勢情報受付部20bと、姿勢推定部20cと、位置推定部20dと、速度推定部20eと、加速度推定部20fと、個体情報保持部20hと、環境情報受付部20gと、画像情報補正部20jと、背景情報除去部20kと、色情報除去部20mとを含む。また、制御部20は、異常検知部24と、外観検知部26とを含む。これら複数の機能ブロックに対応する複数のモジュールが実装されたアプリケーションプログラムが、情報処理装置10のストレージ(例えば記憶部30)にインストールされてもよい。情報処理装置10のプロセッサ(例えばCPU)は、そのアプリケーションプログラムをメインメモリに読み出して実行することにより各機能ブロックの機能を発揮してもよい。
まず、モデル生成部22、画像情報受付部20a、姿勢情報受付部20bおよび姿勢推定部20cを説明する。画像情報受付部20aは、画像情報取得部12から作業部40の撮像結果の入力を受付ける。特に、機械学習時には、画像情報受付部20aは、画像情報取得部12から学習用の参照画像のデータGsを受信する。また、非学習動作時には、画像情報受付部20aは、画像情報取得部12から画像のデータGjを受信する。
姿勢情報受付部20bは、姿勢情報取得部16から作業部40の姿勢情報の入力を受付ける。具体的には、姿勢情報受付部20bは、機械学習時にストロークセンサ16a、16b、16cの伸縮長L1、L2、L3のデータを受信する。伸縮長L1、L2、L3のデータを総称するときは姿勢のデータKsという。
図4は、情報処理装置10の学習データを示す図である。この図では、理解を容易にするために、画像情報取得部12からの参照画像のデータGsを、姿勢のデータKsとともに平面上の図に置き換えて説明している。制御部20は、機械学習時に、受信した参照画像のデータGsと姿勢のデータKsとを対応づけて記憶部30に記憶させる。機械学習時には、制御部20は、作業部40の姿勢を可動範囲内で広く変化させ、その変化の都度、参照画像のデータGsと姿勢のデータKsとを対応づけて記憶部30に記憶させる。記憶部30に記憶された参照画像のデータGsと姿勢のデータKsとを学習データSdという。学習データSdは、作業部40がとりうる姿勢を網羅することが望ましい。したがって、学習データSdは、図4に示すように、互いに対応づけされた参照画像のデータGsと姿勢のデータKsとを大量に含んでいる。
モデル生成部22は、学習データSdの互いに対応づけされた参照画像のデータGsと姿勢のデータKsとを教師データとして用いて、姿勢推定モデルを生成する。本実施形態のモデル生成部22は、参照画像のデータGsと姿勢のデータKsとを教師データとして機械学習(教師有り学習)により姿勢推定モデルを生成する。モデル生成部22は、サポートベクターマシン、ニューラルネットワーク(ディープラーニングを含む)、ランダムフォレスト等、公知の機械学習手法を用いて姿勢推定モデルを生成してもよい。モデル生成部22は、生成した姿勢推定モデルをモデル記憶部32に格納する。
姿勢推定部20cは、非学習動作時において、画像のデータGjと記憶部30の記憶情報とに基づいて作業部40の姿勢を推定する。一例として、姿勢推定部20cは、画像のデータGjと学習データSdの参照画像のデータGsとを比較して、その類似度合いが最も高い参照画像のデータGsに対応づけられた姿勢のデータKsを推定結果としてもよい。この場合、多数の参照画像のデータGsが参照されるため、結果を得るのに時間がかかる可能性がある。そこで、本実施形態の姿勢推定部20cは、モデル生成部22で生成された姿勢推定モデルを用いて、画像のデータGjから推定姿勢を導出する。
図5は、モデル生成部22で生成された姿勢推定モデルにおける姿勢推定処理を説明する説明図である。この姿勢推定モデルは、画像のデータGjが入力されると、その画像データに対応する推定姿勢情報Keを出力する。本実施形態の推定姿勢情報Keは、作業部40のブーム42、アーム44およびバケット46の各関節の屈曲角度θ1、θ2、θ3を含んでいる。姿勢推定部20cは、推定姿勢情報Keを作業機械100の作業機械制御部62に送信する。
次に、位置推定部20d、速度推定部20eおよび加速度推定部20fを説明する。図6は、速度推定部20eにおける速度推定処理を説明する説明図である。図6では、あるタイミングT(n)における作業部40の姿勢を実線で示し、タイミングT(n)より過去のタイミングT(n-1)における作業部40の姿勢を破線で示している。図7は、各タイミングTにおける位置情報Pe、速度情報Veおよび加速度情報Aeの一例を示している。この図では、タイミングT(n)における位置情報PeをPe(n)で示し、速度情報VeをVe(n)で示し、加速度情報AeをAe(n)で示している。位置情報Pe、速度情報Veおよび加速度情報Aeについては後述する。
位置推定部20dは、推定姿勢情報Keをもとに作業部40の所定の部位の位置を推定する。所定の部位に限定はないが、この例では、所定の部位はバケット46である。バケット46の位置は、ブーム42、アーム44およびバケット46の形状情報と推定姿勢情報Ke(屈曲角度θ1、θ2、θ3)とに基づいて計算により特定できる。なお、ブーム42、アーム44およびバケット46の形状情報は、予め記憶部30に記憶させることができる。
位置推定部20dによって推定された位置に関する情報を位置情報Peという。位置推定部20dは、位置情報Peを作業機械制御部62に送信するとともに、記憶部30に時系列的に記憶する。一例として、位置情報Peは、伸縮長L1、L2、L3のデータを含んでもよい。位置情報Peは二次元または三次元情報であってもよい。
速度推定部20eは、時間差を有する複数のタイミングに取得された複数の画像のデータGjと当該時間差とに基づいて速度情報Veを生成する。特に、速度推定部20eは、位置情報Peをもとに作業部40の所定の部位(例えば、バケット46)の速度を推定し、その速度に関する速度情報Veを生成する。バケット46の速度は、バケット46の位置変化を時間で微分することによって得ることができる。例えば、記憶部30に時系列的に記憶された位置情報Peについて、異なる複数のタイミングで生成されて記憶された複数の位置情報Peの差をそのタイミングの時間差dTで除することによってバケット46の速度を推定できる。この時間差dTは、画像のデータGjのフレーム(画像のもとになる静止画像の1コマ)ごとの時間差であってもよい。
一例として、タイミングT(n)は、現在のフレームのタイミングで、タイミングT(n-1)は、現在のフレームより1または複数フレーム前のタイミングであってもよい。この場合、時間差dTは、フレームレート(1秒間当りのフレーム数(fps))の逆数である。速度推定部20eによって推定された速度に関する情報を速度情報Veという。この例では、タイミングT(n)における速度情報Ve(n)は、式(1)で求められる。
Ve(n)=(Pe(n)-Pe(n-1))/dT ・・・(1)
つまり、速度情報Veは、2つのフレームそれぞれの2つの位置情報Peの差をフレームの時間差で除して求められる。
速度推定部20eは、速度情報Veを作業機械制御部62に送信するとともに、記憶部30に時系列的に記憶する。速度情報Veは二次元または三次元情報であってもよい。
加速度推定部20fは、複数の速度情報Veと、時間差とに基づいて作業部40の加速度に関する加速度情報Aeを生成する。特に、加速度推定部20fは、速度情報Veをもとに作業部40の所定の部位(例えば、バケット46)の加速度を推定し、その加速度に関する加速度情報Aeを生成する。バケット46の加速度は、バケット46の速度変化を時間で微分することによって得ることができる。例えば、記憶部30に時系列的に記憶された速度情報Veについて、異なるタイミングで生成されて記憶された複数の速度情報Veの差をその特定タイミングの時間差dTで除することによってバケット46の加速度を推定できる。この時間差dTは、画像のデータGjの各フレームの時間差であってもよい。加速度推定部20fによって推定された加速度に関する情報を加速度情報Aeという。この例では、タイミングT(n)におけるAe(n)は式(2)で求められる。
Ae(n)=(Ve(n)-Ve(n-1))/dT ・・・(2)
つまり、加速度情報Aeは、2つのフレームそれぞれの2つの速度情報Veの差をフレームの時間差で除して求められる。
加速度推定部20fは、加速度情報Aeを作業機械制御部62に送信するとともに、記憶部30に時系列的に記憶する。加速度情報Aeは二次元または三次元情報であってもよい。以下、位置情報Pe、速度情報Veおよび加速度情報Aeを総称するときはフィードバック情報という。
図2に戻り、作業機械制御部62を説明する。作業機械制御部62は、上位の制御システムからの指令情報に基づき、作業機械100の動作を制御する。本実施形態の指令情報は、所定の部位(バケット46)の位置に関する目標位置情報Psと、所定の部位(バケット46)の速度に関する目標速度情報Vsと、所定の部位(バケット46)の加速度に関する目標加速度情報Asとを含んでいる。以下、目標位置情報Ps、目標速度情報Vsおよび目標加速度情報Asを総称するときは目標情報という。
図2に示すように、作業機械制御部62は、動作制御部62aを有する。動作制御部62aは、目標情報とフィードバック情報とに基づいて、所定の制御アルゴリズムにより、制御信号Sjを油圧バルブ58に与え、制御信号Skを旋回駆動部60に与える。動作制御部62aは、制御信号Sjにより油圧バルブ58の開閉を制御し、油圧シリンダ56a、56b、56cを伸縮させ、ブーム42、アーム44およびバケット46の動作を制御する。動作制御部62aは、位置情報Peをフィードバックすることで、所定の部位(バケット46)を所望の位置に制御できる。また、動作制御部62aは、制御信号Skにより旋回駆動部60を制御できる。
動作制御部62aは、速度情報Veをフィードバックすることで、所定の部位(バケット46)の速度を所望のレベルに制御できる。また、位置情報Peの微分要素をフィードバックすることで、位置制御のオーバーシュートやハンチングを抑制できる。また、動作制御部62aは、加速度情報Aeをフィードバックすることで、所定の部位(バケット46)の加速度を所望のレベルに制御できる。また、速度情報Veの微分要素をフィードバックすることで、速度制御のオーバーシュートやハンチングを抑制できる。このように、本実施形態によれば、応答性が高く高精度な制御を実現できる。
次に、異常検知部24を説明する。異常検知部24は、推定姿勢情報Keをもとに作業部40の不具合状態や故障状態を検知し、その検知結果を上位制御システムに出力する。図8は、異常検知部24を概略的に示すブロック図である。この図に示すように、本実施形態の異常検知部24は、予想姿勢演算部24bと、異常判定部24cと、状態出力部24dとを有する。予想姿勢演算部24bは、作業部40が制御された結果として予想される作業部40の姿勢の情報(以下、「予想姿勢情報Ka」という)を演算により決定する。つまり、予想姿勢演算部24bは、制御の結果として作業部40の本来あるべき姿勢を決定する。
本実施形態では、予想姿勢演算部24bは、制御信号Sjに基づいて、油圧バルブ58の開閉動作および油圧シリンダ56a、56b、56cの伸縮長L1、L2、L3をシミュレーションし、この伸縮長L1、L2、L3をもとに予想姿勢情報Kaを決定する。また、別の例として、油圧シリンダ56a、56b、56cに供給される油圧を油圧センサで検知し、予想姿勢演算部24bは、その油圧センサの検知結果に基づいて、伸縮長L1、L2、L3をシミュレーションしてもよい。また、この油圧センサの検知結果と制御信号Sjとに基づいて、伸縮長L1、L2、L3をシミュレーションしてもよい。
異常判定部24cは、画像のデータGjから導出された推定姿勢情報Keと、制御信号Sjとに基づいて作業部40の動作異常を判定する。特に、異常判定部24cは、推定姿勢情報Keと予想姿勢情報Kaとの差dKに応じて作業部40の不具合状態や故障状態を判定する。異常判定部24cは、差dKを複数の閾値により区分けし、その区分けを判定結果J24として出力してもよい。例えば、異常判定部24cは、第1閾値と、第1閾値よりも大きい第2閾値とを用いる。異常判定部24cは、差dKが第1閾値未満の場合は正常状態と判定し、差dKが第1閾値以上第2閾値未満の場合は不具合状態と判定し、差dKが第2閾値以上の場合は故障状態と判定してもよい。なお、本明細書では、故障の可能性が高く直ちに動作を停止させるべき状態を故障状態と定義し、故障に至る可能性があり早期に検査をすべき状態を不具合状態と定義する。
状態出力部24dは、異常判定部24cの判定結果J24を上位制御システムまたは所定のデバイスに提示する。この例では、状態出力部24dは、操縦室38に設けられた表示部38dに異常判定部24cの判定結果J24を表示させる。状態出力部24dは、ネットワークなどの通信手段を介して操縦者または管理者が所持する携帯端末(不図示)に異常判定部24cの判定結果を表示させてもよい。
次に、外観検知部26を説明する。外観検知部26は、画像情報取得部12により取得された画像のデータGjにおいて、油圧シリンダ56a、56b、56cなどの構成部材のいずれかが外れているなど、存在すべき外観形状が表示されていない場合に作業部40が外的に損傷していると判断する。外観検知部26は、推定姿勢情報Keをもとに作業部40の外観上の異常の有無を検知し、その検知結果を上位制御システムに出力する。図9は、外観検知部26を概略的に示すブロック図である。この図に示すように、本実施形態の外観検知部26は、基準画像生成部26bと、外観判定部26cと、状態出力部26dとを有する。
基準画像生成部26bは、推定姿勢情報Keに基づいて、その姿勢において正常と考えられる状態における作業部40の画像に関するデータ(以下、「基準画像のデータGh」という)を生成する。基準画像のデータGhは、正常な初期状態における作業部40の画像に関するデータであってもよい。作業部40の部位ごとの画像データを記憶部30に予め記憶させておき、基準画像生成部26bは、推定姿勢情報Keに基づいて記憶された各部位の画像データを合成し、基準画像のデータGhを生成できる。
外観判定部26cは、画像のデータGjと、基準画像のデータGhとに基づいて作業部40の外観異常を判定する。特に、外観判定部26cは、画像のデータGjと、基準画像生成部26bで生成された基準画像のデータGhとを比較して、その相違度合い(以下、「相違度Sh」という)に応じて作業部40の外観上の異常の有無を判定する。この例では、両画像の類似度合いが高い場合に相違度Shは低く、両画像の類似度合いが低い場合に相違度Shは高い。
外観判定部26cは、相違度Shを複数の閾値により区分けし、その区分けを判定結果J26として出力してもよい。例えば、外観判定部26cは、第1閾値と、第1閾値よりも大きい第2閾値とを用いることができる。外観判定部26cは、相違度Shが第1閾値未満の場合は外観異常なしと判定し、相違度Shが第1閾値以上第2閾値未満の場合は一部に外観異常ありと判定し、相違度Shが第2閾値以上の場合は外観異常ありと判定してもよい。
状態出力部26dは、外観判定部26cの判定結果J26を上位制御システムまたは所定のデバイスに提示する。この例では、状態出力部26dは、操縦室38に設けられた表示部38dに外観判定部26cの判定結果を表示させる。状態出力部26dは、ネットワークなどの通信手段を介して操縦者または管理者が所持する携帯端末(不図示)に外観判定部26cの判定結果を表示させてもよい。
図2に戻り、画像情報補正部20j、環境情報受付部20g、個体情報保持部20h、背景情報除去部20kおよび色情報除去部20mを説明する。
本実施形態の画像情報補正部20jは、画像のデータGjを取得する際の周囲環境に関する情報、作業機械の経年数または作業機械の個体差に応じて画像のデータGjを補正する。また、環境情報受付部20gと、個体情報保持部20hとは画像情報補正部20jに補正情報を提供する。
環境情報受付部20gは、環境情報取得部14から取得結果の入力を受付ける。特に、環境情報受付部20gは、環境情報取得部14から環境情報Mpを受信する。画像情報補正部20jは、環境情報Mpに基づいて画像のデータGjの明るさや色温度を補正する。画像情報補正部20jは、画像のデータGjの明るさを、参照画像のデータGsの明るさと同じになるように補正する。画像情報補正部20jは、画像のデータGjの色温度を、参照画像のデータGsの色温度と同じになるように補正する。この構成により、周囲環境に起因する推定誤差を低減できる。
個々の作業機械100によって作業部40の外観は個体差を有する。この個体差は姿勢推定における誤差要因となる可能性がある。このため、本実施形態の個体情報保持部20hは、各個体の個体情報Meを保持する。個体情報Meは、作業機械100の経年数、作業部40の傷、付着物、変形などによる外観の個体差に関する情報を含んでいる。画像情報補正部20jは、個体情報Meに応じて画像のデータGjを補正する。この構成により、個体差に起因する推定誤差を低減できる。
画像のデータGjは、作業機械100が稼働する現場ごとに異なる背景画像を含んでいる。このため、画像のデータGjに含まれる背景画像が姿勢推定における誤差要因となる可能性がある。このため、本実施形態の背景情報除去部20kは、画像のデータGjから、背景画像に関する情報を除去する。この構成により、背景画像に起因する推定誤差を低減できる。
参照画像のデータGsと画像のデータGjとをフルカラーの画像データとして記憶して処理をすると、取り扱うデータ量が大きくなり、処理速度や記憶容量の点で不利となる。このため、本実施形態の色情報除去部20mは、参照画像のデータGsおよび画像のデータGjから色情報を除去してグレースケールの画像データとする。この構成により、取り扱うデータ量が小さくなり、処理速度や記憶容量の点で有利になる。
以上のように構成された情報処理装置10の動作を説明する。図10は、情報処理装置10の動作を示すフローチャートである。この図は、機械学習時に機械学習によって姿勢推定モデルを生成する動作S70を示している。動作S70は、事前に作業機械100に姿勢情報取得部16が取付けられ、管理者によりモデル作成の指示が入力されたタイミングで開始される。
モデル生成タイミングに至ったら(ステップS71のY)、情報処理装置10の制御部20は、画像情報取得部12および姿勢情報取得部16から参照画像のデータGsと姿勢のデータKsとを受信する(ステップS72)。このステップでは、制御部20は、作業部40の姿勢を可動範囲内で広く変化させ、その変化の都度、参照画像のデータGsと姿勢のデータKsとを受信して記憶部30に記憶させる。
背景情報除去部20kは、参照画像のデータGsから、背景画像に関する情報を除去する(ステップS73)。色情報除去部20mは、参照画像のデータGsから色情報を除去する(ステップS74)。背景画像の除去、色情報の除去は、受信した参照画像のデータGsに対してその都度実行されてもよいし、記憶部30に記憶された参照画像のデータGsに対して実行されてもよい。
モデル生成部22は、背景画像と色情報が除去された参照画像のデータGsと姿勢のデータKsをもとに機械学習により姿勢推定モデルを生成し、モデル記憶部32に格納する(ステップS75)。姿勢推定モデルが格納されたら動作S70は終了する。動作S70の終了後、作業機械100から姿勢情報取得部16が取り外されてもよい。
モデル生成タイミングに至らなければ(ステップS71のN)、S72~S75をスキップする。この動作S70は、あくまでも一例であって、ステップの順序を入れ替えたり、一部のステップを追加・削除・変更したりしてもよい。
図11も、情報処理装置10の動作を示すフローチャートである。この図は、姿勢推定モデルを用いて画像のデータGjをもとに作業部40の姿勢を推定する動作S80を示している。動作S80は、非学習動作時に管理者により姿勢推定の指示が入力されたタイミングで開始される。
姿勢推定のタイミングに至ったら(ステップS81のY)、情報処理装置10の制御部20は、画像情報取得部12から画像のデータGjを受信する(ステップS82)。このステップで、受信した画像のデータGjは記憶部30に記憶される。
背景情報除去部20kは、画像のデータGjから、背景画像に関する情報を除去する(ステップS83)。色情報除去部20mは、画像のデータGjから色情報を除去する(ステップS84)。
画像情報補正部20jは、個体情報保持部20hに保持された個体情報Meに応じて画像のデータGjを補正する(ステップS85)。背景画像の除去、色情報の除去および画像の補正は、記憶部30に記憶された画像のデータGjに対して実行される。
姿勢推定部20cは、背景画像の除去、色情報の除去および画像の補正がなされた画像のデータGjをもとに、姿勢推定モデルに基づき作業部40の姿勢を推定する(ステップS86)。このステップで、姿勢推定モデルから推定姿勢情報Keが出力される。
速度推定部20eは、姿勢推定モデルから出力された推定姿勢情報Keを情報処理装置10の外部に送信する(ステップS87)。例えば、速度推定部20eは、推定姿勢情報Keを作業機械制御部62に送信する。推定姿勢情報Keが送信されたら動作S80は終了する。動作S80は、姿勢推定の指示が無くなるまで、繰り返し実行される。
姿勢推定のタイミングに至らなければ(ステップS81のN)、S82~S87をスキップする。この動作S80は、あくまでも一例であって、ステップの順序を入れ替えたり、一部のステップを追加・削除・変更したりしてもよい。
図12も、情報処理装置10の動作を示すフローチャートである。この図は、推定姿勢情報Keをもとに作業部40の位置、速度および加速度を特定し、その特定結果を作業機械制御部62に送信する動作S90を示している。動作S90は、非学習動作時に管理者により速度および加速度を検知する指示が入力されたタイミングで開始される。
速度および加速度を検知するタイミングに至ったら(ステップS91のY)、位置推定部20dは、推定姿勢情報Keをもとに作業部40の所定の部位(バケット46)の位置情報Peを生成し、作業機械制御部62に送信するとともに、記憶部30に記憶させる(ステップS92)。
位置情報Peが記憶されたら、速度推定部20eは、位置情報Peをもとに作業部40の速度情報Veを生成し、作業機械制御部62に送信するとともに、記憶部30に記憶させる(ステップS93)。
速度情報Veが記憶されたら、加速度推定部20fは、速度情報Veをもとに作業部40の加速度情報Aeを生成し、作業機械制御部62に送信するとともに、記憶部30に記憶させる(ステップS94)。加速度情報Aeが記憶されたら、動作S90は終了する。動作S90は、速度および加速度の検知の指示が無くなるまで、繰り返し実行される。
速度および加速度を検知するタイミングに至らなければ(ステップS91のN)、S92~S94をスキップする。この動作S90は、あくまでも一例であって、ステップの順序を入れ替えたり、一部のステップを追加・削除・変更したりしてもよい。
図13も、情報処理装置10の動作を示すフローチャートである。この図は、推定姿勢情報Keをもとに作業部40の不具合状態、故障状態または作業部40の外観上の異常の有無を検知し、その検知結果を操縦室38に設けられた表示部38dに出力する動作S100を示している。動作S100は、非学習動作時に管理者により状態検知の指示が入力されたタイミングで開始される。
状態検知のタイミングに至ったら(ステップS101のY)、予想姿勢演算部24bは、作業機械制御部62の動作制御部62aから制御信号Sjを取得し、予想姿勢情報Kaを決定する(ステップS102)。
予想姿勢情報Kaが決定されたら、異常判定部24cは、推定姿勢情報Keと予想姿勢情報Kaとの差dKに応じて作業部40の不具合状態や故障状態を判定する(ステップS103)。
作業部40の状態が判定されたら、状態出力部24dは、異常判定部24cの判定結果を表示部38dに表示させる(ステップS104)。
上述の判定結果が表示されたら、基準画像生成部26bは、姿勢のデータKsに基づいて、その姿勢における基準画像のデータGhを生成する(ステップS105)。
基準画像のデータGhが生成されたら、外観判定部26cは、基準画像のデータGhと、画像のデータGjとの相違度Shに応じて作業部40の外観上の異常の有無を判定する(ステップS106)。
作業部40の外観状態が判定されたら、状態出力部26dは、外観判定部26cの判定結果を表示部38dに表示させる(ステップS107)。上述の判定結果が表示されたら動作S100は終了する。動作S100は、状態検知の指示が無くなるまで、繰り返し実行される。
状態検知のタイミングに至らなければ(ステップS101のN)、S102~S107をスキップする。この動作S100は、あくまでも一例であって、ステップの順序を入れ替えたり、一部のステップを追加・削除・変更したりしてもよい。
以上のように構成された本実施形態の情報処理装置10の特徴を説明する。この情報処理装置10は、作業部40の参照画像のデータGsと作業部40の姿勢のデータKsとを対応づけて生成された対応情報を記憶している記憶部30と、参照画像のデータGsと比較するために作業部40の画像のデータGjを取得する画像情報取得部12と、画像のデータGjと対応情報とに基づいて作業部40の速度に関する速度情報Veを生成する速度推定部20eとを備える。この構成によれば、画像情報取得部12で取得した画像のデータGjと、参照画像のデータGsと姿勢のデータKsとから作業部40の速度に関する速度情報Veを生成できる。対応情報は、上述の姿勢推定モデルであってもよい。
画像情報取得部12は、作業部40と一体的に旋回するように構成されてもよい。この場合、画像情報取得部12と作業部40との位置関係が一定になるため、作業部40の速度情報Veを容易に生成できる。
情報処理装置10は、画像のデータGjと対応情報とに基づいて作業部40の姿勢を推定する姿勢推定部20cを有してもよい。この場合、画像のデータGjから作業部40の姿勢を容易に推定できる。
記憶部30は、参照画像のデータGsおよび姿勢のデータKsをもとに機械学習により生成された姿勢推定モデルを記憶してもよい。この場合、機械学習により生成された姿勢推定モデルを利用できる。
速度推定部20eは、時間差を有する複数のタイミングに画像情報取得部12で取得された複数の画像のデータGjと当該時間差とに基づいて速度情報Veを生成してもよい。この場合、簡単な演算処理により速度情報Veを生成できる。
情報処理装置10は、速度推定部20eで生成された複数の速度情報Veと、時間差とに基づいて作業部40の加速度に関する加速度情報Aeを生成する加速度推定部20fを備えてもよい。この場合、簡単な演算処理により加速度情報Aeを生成できる。
情報処理装置10は、画像情報取得部12で取得された画像のデータGjと、作業部40の動作を制御するための制御信号とに基づいて作業部40の動作異常を判定する異常判定部24cを備えてもよい。この場合、特別なセンサを用いなくても、画像のデータGjと制御信号とにより動作異常を検知できる。
情報処理装置10は、画像情報取得部12で取得された画像のデータGjと、正常と考えられる状態における作業部40の基準画像のデータGhとに基づいて作業部40の外観異常を判定する外観判定部26cをさらに備えてもよい。この場合、特別なセンサを用いなくても、画像のデータGjと正常時の画像のデータとにより外観異常を検知できる。
情報処理装置10は、画像のデータGjを取得する際の周囲環境に関する情報、作業機械100の経年数または作業機械100の個体差に応じて画像のデータGjを補正する画像情報補正部20jを有してもよい。この場合、画像のデータGjを補正して姿勢の推定精度を改善できる。
情報処理装置10は、参照画像のデータGsの色情報を圧縮または除去する色情報除去部20mを有してもよい。この場合、記憶部30の記憶容量および処理速度の点で有利になる。
情報処理装置10は、参照画像のデータGsの背景画像を除去する背景情報除去部20kを有してもよい。この場合、背景画像に起因する推定精度の低下を抑制できる。
次に、本発明の第2~第5実施形態を説明する。第2~第5実施形態の図面および説明では、第1実施形態と同一または同等の構成要素、部材には、同一の符号を付する。第1実施形態と重複する説明を適宜省略し、第1実施形態と相違する構成について重点的に説明する。
[第2実施形態]
本発明の第2実施形態は、作業機械の情報処理方法である。この情報処理方法は、作業機械100の作業部40の参照画像のデータGsと作業部40の姿勢のデータKsとを対応づけて生成された対応情報を記憶部30に記憶するステップ(S72~S75)と、参照画像のデータGsと比較するために作業部40の画像のデータGjを取得するステップ(S82)と、時間差を有する複数のタイミングに取得された複数の画像のデータGjと当該時間差と対応情報とに基づいて速度情報Veを生成するステップ(S92)とを含む。
上述の速度情報Veを生成するステップは参照画像のデータGsと姿勢のデータKsとをもとに機械学習により生成された姿勢推定モデルを参照するステップを含んでもよい。つまり、対応情報は姿勢推定モデルであってもよい。第2実施形態の構成によれば、第1実施形態と同様の作用効果を奏する。
[第3実施形態]
本発明の第3実施形態は、建設機械1000である。この建設機械1000は、作業部40と、作業部40の参照画像のデータGsと作業部40の姿勢のデータKsとを対応づけて生成された対応情報を記憶している記憶部30と、参照画像のデータGsと比較するために作業部40の画像のデータGjを取得する画像情報取得部12と、画像のデータGjと対応情報とに基づいて作業部40の速度に関する速度情報Veを生成する速度推定部20eとを備える。対応情報は、上述の姿勢推定モデルであってもよい。
建設機械1000は、例えば腕機構48に取り付けられたバケット46を移動させて建設作業を行う機械であってもよい。建設機械1000の腕機構48には、バケットの代わりにフォーク、ハンマー、クラッシャー等の多様なアタッチメントが取り付けられてもよい。第3実施形態の構成によれば、第1実施形態と同様の作用効果を奏する。
[第4実施形態]
本発明の第4実施形態は、コンピュータプログラムP100である。このコンピュータプログラムP100は、作業部40の参照画像のデータGsと作業部40の姿勢のデータKsとを対応づけて生成された対応情報を記憶部30に記憶する機能と、参照画像のデータGsと比較するために作業部40の画像のデータGjを取得する機能と、時間差を有する複数のタイミングに取得された複数の画像のデータGjと時間差と対応情報とに基づいて作業部40の速度情報Veを生成する機能とをコンピュータに実現させる。対応情報は、上述の姿勢推定モデルであってもよい。
コンピュータプログラムP100では、これらの機能は制御部20の機能ブロックに対応する複数のモジュールが実装されたアプリケーションプログラムとして、情報処理装置10のストレージ(例えば記憶部30)にインストールされてもよい。コンピュータプログラムP100は、情報処理装置10のプロセッサ(例えばCPU)のメインメモリに読み出しされて実行されてもよい。第4実施形態の構成によれば、第1実施形態と同様の作用効果を奏する。
[第5実施形態]
本発明の第5実施形態は、情報処理システム1である。図14は、本実施形態の情報処理システム1を使用した作業機械100を概略的に示すブロック図であり、図2に対応する。情報処理システム1は、作業機械100の作業部40の画像のデータGjに基づいて作業部40の速度に関する速度情報Veを推定する点で第1実施形態と同様である。情報処理システム1は、その構成の一部がネットワークサーバ120に設けられる点で第1実施形態の情報処理装置10と異なる。この例では、推定部120jがネットワークサーバ120に設けられている。
本実施形態の情報処理システム1は、情報処理装置110と、ネットワークサーバ120とを備える。情報処理装置110およびネットワークサーバ120は、有線通信または無線通信を利用した通信ネットワークNWを介して互いに通信する。通信ネットワークNWとして、インターネットなどの汎用ネットワークや専用ネットワークを採用できる。ネットワークサーバ120として、クラウドコンピューティングシステムとも称されるクラウドサーバを採用できる。
情報処理装置110は、取得部12と、制御部20とを有する。制御部20は、画像情報受付部20aと、画像情報送信部20pと、推定結果受信部20qとを有する。取得部12は、作業機械100の作業部40の画像のデータGjを取得する。画像情報送信部20pは、取得部12で取得された画像のデータGjを通信ネットワークNWを介してネットワークサーバ120に送信する。
ネットワークサーバ120は、記憶部120mと、推定部120jと、受信部120qと、送信部120pとを有する。推定部120jは、姿勢推定部120cと、位置推定部120dと、速度推定部120eと、加速度推定部120fとを有する。記憶部120mは、作業部40の参照画像のデータGsと作業機械100の作業部40の姿勢のデータKsとを対応づけて生成された対応情報Ciを記憶する。この例の対応情報Ciは、参照画像のデータGsおよび姿勢のデータKsをもとに機械学習により生成された姿勢推定モデルである。姿勢推定モデルは、予め基準となる作業機械のデータをもとに生成されてモデル記憶部120nに格納されている。
受信部120qは、画像のデータGjを受信する。姿勢推定部120cは、姿勢推定部20cと同様に動作して推定姿勢情報Keを生成する。位置推定部120dは、位置推定部20dと同様に動作して位置情報Peを生成する。速度推定部120eは、速度推定部20eと同様に動作して速度情報Veを生成する。この例では、速度推定部120eは、対応情報Ci(姿勢推定モデル)と、受信した画像のデータGjとに基づいて作業部40の速度に関する速度情報Veを生成する。加速度推定部120fは、加速度推定部20fと同様に動作して加速度情報Aeを生成する。送信部120pは、推定姿勢情報Keと、位置情報Peと、速度情報Veと、加速度情報Aeとを通信ネットワークNWを介して情報処理装置110に送信する。
情報処理装置110の推定結果受信部20qは、ネットワークサーバ120から推定姿勢情報Keと、位置情報Peと、速度情報Veと、加速度情報Aeとを受信する。推定結果受信部20qは、推定姿勢情報Keと、位置情報Peと、速度情報Veと、加速度情報Aeとを作業機械制御部62に送信する。作業機械制御部62は、第1実施形態と同様に動作して、作業機械100の動作を制御する。
以上のように構成された情報処理システム1は、第1実施形態の情報処理装置10と同様に動作し、同様の作用・効果を奏する。加えて、推定部120jがネットワークサーバ120に設けられているため、より高度なアルゴリズムを使用して、推定精度を高められる。また、1つのネットワークサーバで複数の作業機械をサポートできる。
以上、本発明の実施形態の例について詳細に説明した。上述した実施形態は、いずれも本発明を実施するにあたっての具体例を示したものにすぎない。実施形態の内容は、本発明の技術的範囲を限定するものではなく、請求の範囲に規定された発明の思想を逸脱しない範囲において、構成要素の変更、追加、削除などの多くの設計変更が可能である。上述の実施形態では、このような設計変更が可能な内容に関して、「実施形態の」「実施形態では」等との表記を付して説明しているが、そのような表記のない内容に設計変更が許容されないわけではない。
[変形例]
以下、変形例について説明する。変形例の図面および説明では、実施形態と同一または同等の構成要素、部材には、同一の符号を付する。実施形態と重複する説明を適宜省略し、第1実施形態と相違する構成について重点的に説明する。
第1実施形態では、速度情報Ve、加速度情報Aeがバケット46の速度、加速度に関する情報である例を示したが、本発明はこれに限定されない。速度情報Ve、加速度情報Aeは、アーム44やブーム42など作業部40のバケット46以外の部位の速度、加速度に関する情報であってもよい。また、速度情報Ve、加速度情報Aeは、2カ所以上の部位または部分の速度、加速度に関する情報を含んでもよい。
第1実施形態では、速度情報Ve、加速度情報Aeをフィードバックして速度、加速度を制御する例を示したが、本発明はこれに限定されない。例えば、情報処理装置10は、位置情報Pe、速度情報Veおよび加速度情報Aeの少なくとも1つに応じて、作業部40が周囲の人や物との接触を回避する回避動作を制御してもよい。
第1実施形態では、姿勢推定モデルは、個々の作業機械100で生成されてその作業機械100のモデル記憶部32に記憶される例を示したが、本発明はこれに限定されない。姿勢推定モデルは、基準となる作業機械により生成されて、個々の作業機械100のモデル記憶部32に予め格納されてもよい。また、姿勢推定モデルは、適宜のタイミングに更新されてもよい。
第1実施形態の説明では、画像情報取得部12が1つの画像センサで構成される例を示したが、本発明はこれに限定されない。画像情報取得部12は、複数の画像センサで構成されてもよい。例えば、画像情報取得部12は、いわゆるステレオカメラを含んでもよい。
第1実施形態の説明では、画像情報取得部12が操縦室38の屋根に設けられる例を示したが、本発明はこれに限定されない。例えば、画像情報取得部12は、操縦室38の側面や上部車体部34のカバー上に配置されてもよい。また、画像情報取得部12は、作業部40上に配置されてもよい。
第1実施形態の説明では、作業機械100がバケット46を移動させて建設作業を行う建設機械である例を示したが、本発明はこれに限定されず、建設機械以外の作業機械にも適用できる。
第1実施形態では、色情報除去部20mが参照画像のデータGsおよび画像のデータGjから色情報を完全に除去する例を示したが、本発明はこれに限定されない。色情報除去部20mは、減色などにより、参照画像のデータGsおよび画像のデータGjの色情報を圧縮するものであってもよい。
第1実施形態の説明では、腕機構48が操縦室38の右側に設けられる例を示したが、本発明はこれに限定されない。例えば、腕機構は、操縦室の左側や操縦室の前方に設けられてもよい。
第1実施形態の説明では、作業機械100が操縦室38から操縦者によって操縦される例を示したが、本発明はこれに限定されない。例えば、作業機械は、自動操縦や遠隔操縦されるものであってもよい。
第5実施形態の説明では、制御部20が、個体情報保持部20h、環境情報受付部20g、画像情報補正部20j、背景情報除去部20k、色情報除去部20m、異常検知部24および外観検知部26を含まない例を示したが、本発明はこれに限定されない。例えば、第5実施形態の制御部20は、個体情報保持部20h、環境情報受付部20g、画像情報補正部20j、背景情報除去部20k、色情報除去部20m、異常検知部24または外観検知部26の1つ以上を含んでもよい。
上述の変形例は、第1実施形態と同様の作用・効果を奏する。
上述した実施形態と変形例の任意の組み合わせもまた本発明の実施形態として有用である。組み合わせによって生じる新たな実施形態は、組み合わされる実施形態および変形例それぞれの効果をあわせもつ。
10 情報処理装置、 12 画像情報取得部、 14 環境情報取得部、 16 姿勢情報取得部、 20 制御部、 20e 速度推定部、 20f 加速度推定部、 22 モデル生成部、 24c 異常判定部、 26c 外観判定部、 30 記憶部、 32 モデル記憶部、 40 作業部、 42 ブーム、 44 アーム、 46 バケット、 62 作業機械制御部、 100 作業機械、 1000 建設機械。

Claims (14)

  1. 作業機械の作業部の参照画像のデータと前記作業機械の作業部の姿勢のデータとを対応づけて生成された対応情報を記憶している記憶部と、
    前記参照画像のデータと比較するために前記作業機械の作業部の画像のデータを取得する取得部と、
    前記対応情報と前記画像のデータとに基づいて前記作業機械の作業部の速度に関する速度情報を生成する速度推定部と
    を備える情報処理装置。
  2. 前記取得部は前記作業機械の作業部と一体的に旋回するように構成される請求項1に記載の情報処理装置。
  3. 前記画像のデータと前記対応情報とに基づいて前記作業機械の作業部の姿勢を推定する推定部を有する請求項1または2に記載の情報処理装置。
  4. 前記記憶部は前記参照画像のデータおよび前記姿勢のデータをもとに機械学習により生成された姿勢推定モデルを記憶する請求項1から3のいずれかに記載の情報処理装置。
  5. 前記速度推定部は時間差を有する複数のタイミングに前記取得部で取得された複数の画像のデータと前記時間差とに基づいて前記速度情報を生成する請求項1から4のいずれかに記載の情報処理装置。
  6. 前記速度推定部で生成された複数の速度情報と前記時間差とに基づいて前記作業機械の作業部の加速度に関する加速度情報を生成する加速度推定部をさらに備える請求項5に記載の情報処理装置。
  7. 前記取得部で取得された前記画像のデータと前記作業機械の作業部の動作を制御するための制御信号とに基づいて前記作業機械の作業部の動作異常を判定する異常判定部をさらに備える請求項1から6のいずれかに記載の情報処理装置。
  8. 前記取得部で取得された前記画像のデータと正常な状態における前記作業機械の作業部の画像のデータとに基づいて前記作業機械の作業部の外観異常を判定する外観判定部をさらに備える請求項1から7のいずれかに記載の情報処理装置。
  9. 作業機械の作業部の参照画像のデータと前記作業機械の作業部の姿勢のデータをもとに機械学習により生成された姿勢推定モデルを記憶している記憶部と、
    前記作業機械の作業部と一体的に旋回するように構成され前記参照画像のデータと比較するために前記作業機械の作業部の画像のデータを取得する取得部と、
    前記取得部で取得された前記画像のデータに基づいて前記姿勢推定モデルを参照して前記作業機械の作業部の姿勢を推定する姿勢推定部と、
    前記姿勢推定部で推定された前記作業機械の作業部の姿勢に関する推定姿勢情報をもとに前記作業機械の作業部の所定の部位の位置を推定する位置推定部と、
    前記位置推定部で推定された前記所定の部位の位置に関する位置情報をもとに前記作業機械の作業部の速度に関する速度情報を生成する速度推定部と
    を備える情報処理装置。
  10. 作業機械の作業部の画像のデータを取得して送信する情報処理装置と、
    前記情報処理装置から受信した前記画像のデータと前記作業機械の作業部の参照画像のデータと前記作業機械の作業部の姿勢のデータとを対応づけて予め生成された対応情報とに基づいて前記作業機械の作業部の速度に関する速度情報を推定し当該速度情報を前記情報処理装置に送信するネットワークサーバと
    を備える情報処理システム。
  11. 作業機械の作業部の参照画像のデータと前記作業機械の作業部の姿勢のデータとを対応づけて生成された対応情報を記憶するステップと、
    前記参照画像のデータと比較するために前記作業機械の作業部の画像のデータを取得するステップと、
    時間差を有する複数のタイミングに取得された複数の画像のデータと前記時間差と前記対応情報とに基づいて速度情報を生成するステップと
    を含む情報処理方法。
  12. 前記速度情報を生成するステップは前記参照画像のデータと前記姿勢のデータとをもとに機械学習により生成された姿勢推定モデルを参照するステップを含む
    請求項11に記載の情報処理方法。
  13. 作業機械の作業部の参照画像のデータと前記作業機械の作業部の姿勢のデータとを対応づけて生成された対応情報を記憶する機能と、
    前記参照画像のデータと比較するために前記作業機械の作業部の画像のデータを取得する機能と、
    時間差を有する複数のタイミングに取得された複数の画像のデータと前記時間差と前記対応情報とに基づいて前記作業機械の作業部の速度情報を生成する機能と
    をコンピュータに実現させるためのコンピュータプログラム。
  14. 作業機械の作業部と、
    前記作業機械の作業部の参照画像のデータと前記作業機械の作業部の姿勢のデータとを対応づけて生成された対応情報を記憶している記憶部と、
    前記参照画像のデータと比較するために前記作業機械の作業部の画像のデータを取得する取得部と、
    前記取得部で取得された前記画像のデータと前記対応情報とに基づいて前記作業機械の作業部の速度に関する速度情報を生成する速度推定部と
    を備える建設機械。
JP2019164810A 2019-09-10 2019-09-10 情報処理装置、情報処理システム、情報処理方法、コンピュータプログラム、建設機械 Active JP7282002B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019164810A JP7282002B2 (ja) 2019-09-10 2019-09-10 情報処理装置、情報処理システム、情報処理方法、コンピュータプログラム、建設機械
KR1020200113664A KR20210030875A (ko) 2019-09-10 2020-09-07 정보 처리 장치, 정보 처리 시스템, 정보 처리 방법, 컴퓨터 프로그램, 건설 기계
CN202010939634.9A CN112482460B (zh) 2019-09-10 2020-09-09 信息处理装置及系统和方法、计算机程序以及建筑机械

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019164810A JP7282002B2 (ja) 2019-09-10 2019-09-10 情報処理装置、情報処理システム、情報処理方法、コンピュータプログラム、建設機械

Publications (2)

Publication Number Publication Date
JP2021042569A JP2021042569A (ja) 2021-03-18
JP7282002B2 true JP7282002B2 (ja) 2023-05-26

Family

ID=74863806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019164810A Active JP7282002B2 (ja) 2019-09-10 2019-09-10 情報処理装置、情報処理システム、情報処理方法、コンピュータプログラム、建設機械

Country Status (3)

Country Link
JP (1) JP7282002B2 (ja)
KR (1) KR20210030875A (ja)
CN (1) CN112482460B (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008240361A (ja) 2007-03-27 2008-10-09 Komatsu Ltd 建設機械の省燃費運転支援方法および省燃費運転支援システム
JP2017053627A (ja) 2015-09-07 2017-03-16 Kyb株式会社 角度検出装置
JP2018188957A (ja) 2018-09-06 2018-11-29 住友重機械工業株式会社 ショベル

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6267208U (ja) * 1985-10-16 1987-04-27
DE112014000079B4 (de) * 2014-06-04 2017-02-09 Komatsu Ltd. Stellungsberechnungsvorrichtung für eine Arbeitsmaschine, Arbeitsmaschine und Stellungsberechnungsverfahren für eine Arbeitsmaschine
KR101800103B1 (ko) * 2014-06-04 2017-11-21 가부시키가이샤 고마쓰 세이사쿠쇼 작업 기계의 자세 연산 장치, 작업 기계 및 작업 기계의 자세 연산 방법
US10586349B2 (en) * 2017-08-24 2020-03-10 Trimble Inc. Excavator bucket positioning via mobile device
CN109903337B (zh) * 2019-02-28 2022-06-14 北京百度网讯科技有限公司 用于确定挖掘机的铲斗的位姿的方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008240361A (ja) 2007-03-27 2008-10-09 Komatsu Ltd 建設機械の省燃費運転支援方法および省燃費運転支援システム
JP2017053627A (ja) 2015-09-07 2017-03-16 Kyb株式会社 角度検出装置
JP2018188957A (ja) 2018-09-06 2018-11-29 住友重機械工業株式会社 ショベル

Also Published As

Publication number Publication date
JP2021042569A (ja) 2021-03-18
CN112482460A (zh) 2021-03-12
KR20210030875A (ko) 2021-03-18
CN112482460B (zh) 2023-06-27

Similar Documents

Publication Publication Date Title
US10317854B2 (en) Machine learning device that performs learning using simulation result, machine system, manufacturing system, and machine learning method
CN106780608B (zh) 位姿信息估计方法、装置和可移动设备
JP4961860B2 (ja) ロボット装置及びロボット装置の制御方法
US20180141213A1 (en) Anti-collision system and anti-collision method
JP2019087073A (ja) 移動式マニピュレータ、移動式マニピュレータの制御方法及びプログラム
CN110561430B (zh) 用于离线示例学习的机器人装配轨迹优化方法及装置
JP2019188580A (ja) 情報処理装置、制御方法、ロボットシステム、コンピュータプログラム、及び記憶媒体
CN103895042A (zh) 一种基于视觉引导的工业机器人工件定位抓取方法及系统
JP2019107704A (ja) ロボットシステム及びロボット制御方法
JP7044047B2 (ja) ロボット
CN109590987B (zh) 半智能示教学习方法、智能机器人和存储介质
CN112207813B (zh) 运算装置、机器学习方法以及非暂时性存储介质
CN111300451B (zh) 一种高智能变形机器人
US20210229284A1 (en) Control device, control method, and program
US11376732B2 (en) Robot system for correcting teaching of robot using image processing
US20210370506A1 (en) Database construction for control of robotic manipulator
CN111795701A (zh) 机器人远程恢复定位方法及装置
JP7282002B2 (ja) 情報処理装置、情報処理システム、情報処理方法、コンピュータプログラム、建設機械
WO2022208963A1 (ja) ロボット制御用のキャリブレーション装置
JP7383255B2 (ja) 情報処理システム、情報処理方法、建設機械
WO2022056050A1 (en) Fine-grained industrial robotic assemblies
CN110175523B (zh) 一种自移动机器人动物识别与躲避方法及其存储介质
CN116051522A (zh) 一种工作面转载处拥堵处理方法、装置及电子设备
Zhou et al. Visual servo control system of 2-DOF parallel robot
CN116038666A (zh) 集成多重传感器的双臂机器手装置及其协同柔顺操作方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220812

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230428

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230516

R151 Written notification of patent or utility model registration

Ref document number: 7282002

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151