JP7383255B2 - 情報処理システム、情報処理方法、建設機械 - Google Patents

情報処理システム、情報処理方法、建設機械 Download PDF

Info

Publication number
JP7383255B2
JP7383255B2 JP2019152111A JP2019152111A JP7383255B2 JP 7383255 B2 JP7383255 B2 JP 7383255B2 JP 2019152111 A JP2019152111 A JP 2019152111A JP 2019152111 A JP2019152111 A JP 2019152111A JP 7383255 B2 JP7383255 B2 JP 7383255B2
Authority
JP
Japan
Prior art keywords
data
working
posture
working machine
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019152111A
Other languages
English (en)
Other versions
JP2021033568A (ja
Inventor
裕平 西田
富雄 志垣
謙 大前
望 荒木
幸平 芳住
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nabtesco Corp
University of Hyogo
Original Assignee
Nabtesco Corp
University of Hyogo
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nabtesco Corp, University of Hyogo filed Critical Nabtesco Corp
Priority to JP2019152111A priority Critical patent/JP7383255B2/ja
Priority to KR1020200104588A priority patent/KR20210023747A/ko
Priority to CN202010847464.1A priority patent/CN112414299A/zh
Publication of JP2021033568A publication Critical patent/JP2021033568A/ja
Application granted granted Critical
Publication of JP7383255B2 publication Critical patent/JP7383255B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/2025Particular purposes of control systems not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Description

本発明は、情報処理システム、情報処理方法および建設機械に関する。
作業装置の姿勢を特定するために、作業装置を撮像するカメラを備えた建設機械が知られている。例えば、特許文献1には、旋回体に設置されて作業装置を撮像するカメラと、相対角度を検出する角度検出部と、姿勢を特定する姿勢特定部とを備えた建設機械が記載されている。この建設機械は、カメラの画像に基づいて抽出した各リンクのエッジからリンク同士の相対角度を検出し、その相対角度に基づいて、旋回体に対する作業装置の姿勢を特定する。
特開2017-053627号公報
本発明者らは、油圧等の動力で駆動されるブーム・アームとアタッチメントとを備える建設機械について、以下の認識を得た。
ある建設機械は、動力を利用してブームとアームなどからなる腕機構を駆動し、腕機構に取り付けられたバケット等のアタッチメントを動かして所定の作業を行う。腕機構およびアタッチメント(以下、「作業部」という)の衝突を回避したり、作業部の位置等をフィードバックして作業部の動作を制御したりするために、ブーム、アーム、バケットなど作業部の各部分の間のリンク角や各シリンダのストローク長など作業部の各部分の立体的な位置(以下、「作業部の姿勢」または単に「姿勢」という)の情報を特定して用いることが考えられる。
作業部の姿勢を特定するために、各部分を駆動する各シリンダにストロークセンサを設置し、そのセンサの検知結果から作業部の姿勢を算出して求めることが考えられる。この場合、各部分それぞれにストロークセンサを設け、そのストロークセンサと制御装置との間に配線を設けることになるので、構成が複雑化してコスト的に不利である。
簡単な構成で作業部の姿勢を推定する観点からは、特許文献1に記載の建設機械は十分に対処されているとはいえない。このような課題は、建設機械に限らず他の種類の作業機械についても生じうる。
本発明は、こうした課題に鑑みてなされたものであり、簡単な構成で作業部の姿勢を推定可能な作業機械の情報処理システムを提供することを目的の一つとしている。
上記課題を解決するために、本発明のある態様の情報処理システムは、作業機械の作業部の参照画像のデータと作業機械の作業部の姿勢のデータとを対応づけて記憶している記憶部と、参照画像のデータと比較するために作業機械の作業部の画像のデータを取得する取得部とを備える。
なお、以上の任意の組み合わせや、本発明の構成要素や表現を方法、装置、プログラム、プログラムを記録した一時的なまたは一時的でない記憶媒体、システムなどの間で相互に置換したものもまた、本発明の態様として有効である。
本発明によれば、簡単な構成で作業部の姿勢を推定可能な作業機械の情報処理システムを提供できる。
第1実施形態の情報処理システムを備えた作業機械を概略的に示す側面図である。 図1の情報処理システムを概略的に示すブロック図である。 図1の作業機械の作業部の姿勢を説明する説明図である。 図1の情報処理システムの学習データを示す図である。 図1の情報処理システムの姿勢推定処理を説明する説明図である。 図1の情報処理システムの動作を示すフローチャートである。 図1の情報処理システムの動作を示すフローチャートである。
本発明者らは、カメラの画像情報から作業部の姿勢を推定する方法を研究し、以下の知見を得た。建設機械において、作業部を撮像するカメラの画像情報から各部分のエッジを抽出し、そのエッジから各部分の相対角度を検出し、その相対角度から姿勢を特定する構成が考えられる。しかし、この構成では多段階の情報処理を逐次連続して実行するので、大量の情報処理をするために高価な高性能CPUを使用する必要がある。処理能力の低いCPUを使用すると処理が追いつかず推定精度が低下し、衝突回避や動作制御が適切に機能しない。また、この情報処理には、建設機械の多様な形状ごとに、対応する情報処理プログラムを開発する必要があるため、開発工数が多く掛るという問題もある。
このような背景から、本発明者らは、カメラの画像情報と、作業部の参照画像データおよび姿勢データのデータベースとを用いて、作業部の姿勢を推定する技術を開発した。この技術によれば、推定精度の低下を抑制しつつ、簡単な構成で姿勢を推定することができる。以下、その技術の一例を実施形態に基づいて説明する。
以下、本発明を好適な実施形態をもとに各図面を参照しながら説明する。実施形態および変形例では、同一または同等の構成要素、部材には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面における部材の寸法は、理解を容易にするために適宜拡大、縮小して示される。また、各図面において実施形態を説明する上で重要ではない部材の一部は省略して表示する。
また、第1、第2などの序数を含む用語は多様な構成要素を説明するために用いられるが、この用語は一つの構成要素を他の構成要素から区別する目的でのみ用いられ、この用語によって構成要素が限定されるものではない。
[第1実施形態]
図面を参照して、本発明の第1実施形態の作業機械の情報処理システム10の構成について説明する。図1は、第1実施形態の情報処理システム10を備えた作業機械100を概略的に示す側面図である。図2は、情報処理システム10を概略的に示すブロック図である。
情報処理システム10は、画像情報取得部12と、環境情報取得部14と、姿勢情報取得部16と、制御部20と、記憶部30とを備える。情報処理システム10は、機械学習時と、機械学習時でない通常の動作時(以下、「非学習動作時」という)とを有する。情報処理システム10は、機械学習時に、作業機械100の作業部40の各部の学習画像情報と学習姿勢情報とに基づいて姿勢推定モデルを生成できる。情報処理システム10は、非学習動作時に、リアルタイムな画像情報と姿勢推定モデルとに基づいて作業部40の姿勢を推定できる。作業機械100は、情報処理システム10で推定した作業部40の姿勢に基づいて、作業部40の動作を制御することができる。
画像情報取得部12は、作業部40の画像のデータを取得する。環境情報取得部14は、作業機械100の周囲環境に関する情報を取得する。姿勢情報取得部16は、作業部40の姿勢に関するデータ(以下、「姿勢のデータ」という)を取得する。制御部20は、姿勢推定モデルの生成と、作業部40の姿勢推定に関わる種々のデータ処理を実行する。記憶部30は、制御部20により参照または更新されるデータを記憶する。先に、作業機械100の構成を説明し、その他の構成については後述する。
本実施形態の作業機械100は、バケット46を移動させて作業を行う建設機械であり、いわゆるパワーショベルとして機能する。作業機械100は、下部走行部36と、上部車体部34と、腕機構48と、バケット46とを有する。本実施形態において腕機構48と、バケット46とは作業部40を構成する。下部走行部36は、無限軌道などにより所定方向に走行可能に構成される。上部車体部34は、下部走行部36に搭載されている。上部車体部34と作業部40とは、旋回駆動部60により下部走行部36に対して旋回軸Laまわりに旋回可能に構成される。旋回駆動部60は、例えば、旋回モータ(不図示)と旋回ギア(不図示)とで構成できる。上部車体部34には、操縦室38が設けられる。
操縦室38には、作業部40を操縦する操作部54が設けられる。操作部54から操作が入力されると、その操作に応じて複数の油圧バルブ58が開閉する。油圧バルブ58の開閉に応じて、油圧ポンプ(不図示)から供給される作動油が複数の油圧シリンダ56に送出される。油圧シリンダ56は、腕機構48の基端側から先端側に順に配置される油圧シリンダ56a、56b、56cを含む。油圧シリンダ56a、56b、56cは、作動油の送出量に応じて伸縮する。
腕機構48の基端部は、一例として、上部車体部34において操縦室38の右側に設けられる。腕機構48は、例えば、上部車体部34から前方に延びるブーム42とアーム44とを含む。腕機構48の先端側にはバケット46が取り付けられる。このように、作業機械100は、操縦者の操縦に応じて作業部40の姿勢を変化させることによりバケット46を駆動して目的の作業を行うことができる。また、作業機械100は、上部車体部34と作業部40とを旋回することにより、バケット46を三次元的に移動させることができる。
図3は、作業部40の姿勢を説明する説明図である。油圧シリンダ56a、56b、56cは、油圧に応じてその伸縮長L1、L2、L3を変えることができる。ブーム42は、油圧シリンダ56aの伸縮により、上部車体部34側の基端部を中心に先端部が上下に回動するように構成される。アーム44は、油圧シリンダ56bの伸縮により、ブーム42側の基端部を中心に先端部が前後に回動するように構成される。バケット46は、油圧シリンダ56cの伸縮により、アーム44側の基端部を中心に先端部が前後または上下に回動するように構成される。
作業部40は、油圧シリンダ56a、56b、56cの伸縮長L1、L2、L3を変化させることにより、ブーム42、アーム44およびバケット46を接続する関節部の屈曲角度θ1、θ2、θ3を変化させることができる。一例として、角度θ1は、ブーム42の水平面に対する角度であり、角度θ2は、ブーム42とアーム44を接続する関節部の屈曲角度であり、角度θ3は、アーム44とバケット46を接続する関節部の屈曲角度である。
作業部40の姿勢は、ブーム42、アーム44およびバケット46の位置および相対角度によって定義できる。ブーム42、アーム44およびバケット46の形状が一定として、作業部40の姿勢は、ブーム42、アーム44およびバケット46の各部の大きさと、油圧シリンダ56a、56b、56cの伸縮長L1、L2、L3または屈曲角度θ1、θ2、θ3に基づいて幾何学演算により特定できる。
図2に戻る。図2で示す各ブロックは、ハードウェア的には、コンピュータのプロセッサ、CPU、メモリをはじめとする素子や電子回路、機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、当業者には理解されるところである。
画像情報取得部12を説明する。本実施形態の画像情報取得部12は、作業部40を撮像する画像センサを有する。画像情報取得部12は、後述する機械学習時には、作業部40を撮像した撮像結果を画像のデータとして制御部20に提供する。以下、機械学習時に取得する画像のデータを「参照画像のデータGs」という。画像情報取得部12は、非学習動作時にも、作業部40を撮像した撮像結果を画像のデータとして制御部20に提供する。以下、非学習動作時に取得する画像のデータを単に「画像のデータGj」という。画像のデータGjはリアルタイムな画像のデータであってもよい。
画像情報取得部12は、作業部40と一体的に旋回するように構成されている。具体的には、画像情報取得部12は、操縦室38の屋根上において作業部40を撮像可能に配置されている。作業部40が旋回するとき、画像情報取得部12は作業部40と一体的に移動するので、旋回しても作業部40との相対的な位置関係は変化しない。
姿勢情報取得部16を説明する。本実施形態の油圧シリンダ56a、56b、56cの伸縮長L1、L2、L3を取得するストロークセンサ16a、16b、16cを含む。姿勢情報取得部16は、機械学習時に取付けられ、非学習動作時には取外される。姿勢情報取得部16は、機械学習時に伸縮長L1、L2、L3のデータを制御部20に提供する。
環境情報取得部14を説明する。画像のデータを取得する際に、天候などの周囲環境が異なると、画像の明るさや色温度も異なり、このことによって姿勢推定の誤差が増える要因になる。そこで、本実施形態では、環境情報取得部14によって周囲環境に関する情報を取得し、その取得結果に応じて画像のデータを補正する。本実施形態の環境情報取得部14は、周囲の明るさを取得する照度センサと色温度を取得する色温度センサとを含む。環境情報取得部14は、取得結果を環境情報Mpとして制御部20に提供する。この例では、環境情報取得部14は、操縦室38の屋根上に配置されている。
記憶部30を説明する。記憶部30は、モデル記憶部32を含む。モデル記憶部32は、参照画像のデータGsと姿勢のデータとをもとに公知の機械学習により生成されたモデルであって、作業部40の姿勢を推定する姿勢推定モデルを記憶する。姿勢推定モデルは、入力および出力のデータ形式が予め定められた関数とも言える。実施形態の姿勢推定モデルには、画像のデータGjが入力される。また、実施形態の姿勢推定モデルは、その画像データに対応する推定姿勢に関する情報を出力する。なお、姿勢推定モデルの生成手法については後述する。
制御部20を説明する。制御部20は、画像情報受付部20aと、姿勢情報受付部20bと、モデル生成部20dと、姿勢推定部20eと、推定姿勢提示部20fと、個体情報保持部20hと、環境情報受付部20gと、画像情報補正部20jと、背景情報除去部20kと、色情報除去部20nと、を含む。これら複数の機能ブロックに対応する複数のモジュールが実装されたアプリケーションプログラムが、情報処理システム10のストレージ(例えば記憶部30)にインストールされてもよい。情報処理システム10のプロセッサ(例えばCPU)は、そのアプリケーションプログラムをメインメモリに読み出して実行することにより各機能ブロックの機能を発揮してもよい。
画像情報受付部20aは、画像情報取得部12から作業部40の撮像結果の入力を受付ける。特に、機械学習時には、画像情報受付部20aは、画像情報取得部12から学習用の参照画像のデータGsを受信する。また、非学習動作時には、画像情報受付部20aは、画像情報取得部12から画像のデータGjを受信する。
姿勢情報受付部20bは、姿勢情報取得部16から作業部40の姿勢情報の入力を受付ける。具体的には、姿勢情報受付部20bは、機械学習時にストロークセンサ16a、16b、16cの伸縮長L1、L2、L3のデータを受信する。伸縮長L1、L2、L3のデータを総称するときは姿勢のデータKsという。
図4は、情報処理システム10の学習データを示す図である。この図では、理解を容易にするために、画像情報取得部12からの参照画像のデータGsを、姿勢のデータKsとともに平面上の図に置き換えて説明している。制御部20は、機械学習時に、受信した参照画像のデータGsと姿勢のデータKsとを対応づけて記憶部30に記憶させる。機械学習時には、制御部20は、作業部40の姿勢を可動範囲内で広く変化させ、その変化の都度、参照画像のデータGsと姿勢のデータKsとを対応づけて記憶部30に記憶させる。記憶部30に記憶された参照画像のデータGsと姿勢のデータKsとを学習データSdという。学習データSdは、作業部40がとりうる姿勢を網羅することが望ましい。したがって、学習データSdは、図4に示すように、互いに対応づけされた参照画像のデータGsと姿勢のデータKsとを大量に含んでいる。
モデル生成部20dは、学習データSdの互いに対応づけされた参照画像のデータGsと姿勢のデータKsとを教師データとして用いて、姿勢推定モデルを生成する。本実施形態のモデル生成部20dは、参照画像のデータGsと姿勢のデータKsとを教師データとして機械学習(教師有り学習)により姿勢推定モデルを生成する。モデル生成部20dは、サポートベクターマシン、ニューラルネットワーク(ディープラーニングを含む)、ランダムフォレスト等、公知の機械学習手法を用いて姿勢推定モデルを生成してもよい。モデル生成部20dは、生成した姿勢推定モデルをモデル記憶部32に格納する。
姿勢推定部20eは、非学習動作時において、画像のデータGjと記憶部30の記憶情報とに基づいて作業部40の姿勢を推定する。一例として、姿勢推定部20eは、画像のデータGjと学習データSdの参照画像のデータGsとを比較して、その類似度合いが最も高い参照画像のデータGsに対応づけられた姿勢のデータKsを推定結果としてもよい。この場合、多数の参照画像のデータGsが参照されるため、結果を得るのに時間がかかる可能性がある。そこで、本実施形態の姿勢推定部20eは、モデル生成部20dで生成された姿勢推定モデルを用いて、画像のデータGjから推定姿勢を導出する。
図5は、モデル生成部20dで生成された姿勢推定モデルにおける姿勢推定処理を説明する説明図である。この姿勢推定モデルは、画像のデータGjが入力されると、その画像データに対応する推定姿勢情報Keを出力する。本実施形態の推定姿勢情報Keは、作業部40のブーム42、アーム44およびバケット46の各関節の屈曲角度θ1、θ2、θ3を含んでいる。
推定姿勢提示部20fは、姿勢推定部20eにより推定された推定姿勢情報Keを情報処理システム10の外部に送信する。本実施形態では、推定姿勢提示部20fは、推定姿勢情報Keを作業機械制御部62に送信する。作業機械制御部62は、作業機械100の動作を制御する。例えば、作業機械制御部62は、油圧バルブ58の開閉を制御して油圧シリンダ56a、56b、56cを伸縮させることにより、ブーム42、アーム44およびバケット46の動作を制御する。
本実施形態の画像情報補正部20jは、画像のデータGjを取得する際の周囲環境に関する情報、作業機械の経年数または作業機械の個体差に応じて画像のデータGjを補正する。また、環境情報受付部20gと、個体情報保持部20hとは画像情報補正部20jに補正情報を提供する。
環境情報受付部20gは、環境情報取得部14から取得結果の入力を受付ける。特に、環境情報受付部20gは、環境情報取得部14から環境情報Mpを受信する。画像情報補正部20jは、環境情報Mpに基づいて画像のデータGjの明るさや色温度を補正する。画像情報補正部20jは、画像のデータGjの明るさを、参照画像のデータGsの明るさと同じになるように補正する。画像情報補正部20jは、画像のデータGjの色温度を、参照画像のデータGsの色温度と同じになるように補正する。この構成により、周囲環境に起因する推定誤差を低減できる。
個々の作業機械100によって作業部40の外観は個体差を有する。この個体差は姿勢推定における誤差要因となる可能性がある。このため、本実施形態の個体情報保持部20hは、各個体の個体情報Meを保持する。個体情報Meは、作業機械100の経年数、作業部40の傷、付着物、変形などによる外観の個体差に関する情報を含んでいる。画像情報補正部20jは、個体情報Meに応じて画像のデータGjを補正する。この構成により、個体差に起因する推定誤差を低減できる。
画像のデータGjは、作業機械100が稼働する現場ごとに異なる背景画像を含んでいる。このため、画像のデータGjに含まれる背景画像が姿勢推定における誤差要因となる可能性がある。このため、本実施形態の背景情報除去部20kは、画像のデータGjから、背景画像に関する情報を除去する。この構成により、背景画像に起因する推定誤差を低減できる。
参照画像のデータGsと画像のデータGjとをフルカラーの画像データとして記憶して処理をすると、取り扱うデータ量が大きくなり、処理速度や記憶容量の点で不利となる。このため、本実施形態の色情報除去部20nは、参照画像のデータGsおよび画像のデータGjから色情報を除去してグレースケールの画像データとする。この構成により、取り扱うデータ量が小さくなり、処理速度や記憶容量の点で有利になる。
以上のように構成された情報処理システム10の動作を説明する。図6は、情報処理システム10の動作を示すフローチャートである。この図は、機械学習時に機械学習によって姿勢推定モデルを生成する動作S70を示している。動作S70は、事前に作業機械100に姿勢情報取得部16が取付けられ、管理者によりモデル作成の指示が入力されたタイミングで開始される。
モデル生成タイミングに至ったら(ステップS71のY)、情報処理システム10の制御部20は、画像情報取得部12および姿勢情報取得部16から参照画像のデータGsと姿勢のデータKsとを受信する(ステップS72)。このステップでは、制御部20は、作業部40の姿勢を可動範囲内で広く変化させ、その変化の都度、参照画像のデータGsと姿勢のデータKsとを受信して記憶部30に記憶させる。
背景情報除去部20kは、参照画像のデータGsから、背景画像に関する情報を除去する(ステップS73)。色情報除去部20nは、参照画像のデータGsから色情報を除去する(ステップS74)。背景画像の除去、色情報の除去は、受信した参照画像のデータGsに対してその都度実行されてもよいし、記憶部30に記憶された参照画像のデータGsに対して実行されてもよい。
モデル生成部20dは、背景画像と色情報が除去された参照画像のデータGsと姿勢のデータKsをもとに機械学習により姿勢推定モデルを生成し、モデル記憶部32に格納する(ステップS75)。姿勢推定モデルが格納されたら動作S70は終了する。動作S70の終了後、作業機械100から姿勢情報取得部16が取り外されてもよい。
モデル生成タイミングに至らなければ(ステップS71のN)、S72~S75をスキップする。この動作S70は、あくまでも一例であって、ステップの順序を入れ替えたり、一部のステップを追加・削除・変更したりしてもよい。
図7も、情報処理システム10の動作を示すフローチャートである。この図は、姿勢推定モデルを用いて画像のデータGjをもとに作業部40の姿勢を推定する動作S80を示している。動作S80は、非学習動作時に管理者により姿勢推定の指示が入力されたタイミングで開始される。
姿勢推定のタイミングに至ったら(ステップS81のY)、情報処理システム10の制御部20は、画像情報取得部12から画像のデータGjを受信する(ステップS82)。このステップで、受信した画像のデータGjは記憶部30に記憶される。
背景情報除去部20kは、画像のデータGjから、背景画像に関する情報を除去する(ステップS83)。色情報除去部20nは、画像のデータGjから色情報を除去する(ステップS84)。
画像情報補正部20jは、個体情報保持部20hに保持された個体情報Meに応じて画像のデータGjを補正する(ステップS85)。背景画像の除去、色情報の除去および画像の補正は、記憶部30に記憶された画像のデータGjに対して実行される。
姿勢推定部20eは、背景画像の除去、色情報の除去および画像の補正がなされた画像のデータGjをもとに、姿勢推定モデルに基づき作業部40の姿勢を推定する(ステップS86)。このステップで、姿勢推定モデルから推定姿勢情報Keが出力される。
推定姿勢提示部20fは、姿勢推定モデルから出力された推定姿勢情報Keを情報処理システム10の外部に送信する(ステップS87)。例えば、推定姿勢提示部20fは、推定姿勢情報Keを作業機械制御部62に送信する。推定姿勢情報Keが送信されたら動作S80は終了する。動作S80は、姿勢推定の指示が無くなるまで、繰り返し実行される。
姿勢推定のタイミングに至らなければ(ステップS81のN)、S82~S87をスキップする。この動作S80は、あくまでも一例であって、ステップの順序を入れ替えたり、一部のステップを追加・削除・変更したりしてもよい。
以上のように構成された本実施形態の情報処理システム10の特徴を説明する。この情報処理システム10は、作業機械100の作業部40の参照画像のデータGsと作業機械100の作業部40の姿勢のデータKsとを対応づけて記憶している記憶部30と、参照画像のデータGsと比較するために作業機械100の作業部40の画像のデータGjを取得する画像情報取得部12とを備える。この構成によれば、画像情報取得部12で取得した画像のデータGjと参照画像のデータGsと姿勢のデータKsとから、作業部40の姿勢を推定できる。
画像情報取得部12は、作業機械100の作業部40と一体的に旋回するように構成されてもよい。この場合、作業機械100の作業部40の動作を容易に特定できる。
情報処理システム10は、画像のデータGjと記憶部30の記憶情報とに基づいて作業部40の姿勢を推定する姿勢推定部20eを有してもよい。この場合、画像のデータGjから作業部40の姿勢を推定できる。
記憶部30は、参照画像のデータGsおよび姿勢のデータKsをもとに機械学習により生成された姿勢推定モデルを記憶してもよい。この場合、機械学習により姿勢推定モデルを生成できる。
情報処理システム10は、画像のデータGjを取得する際の周囲環境に関する情報、作業機械100の経年数、または作業機械100の個体差の少なくともいずれか1つに応じて画像のデータGjを補正する画像情報補正部20jを有してもよい。この場合、画像のデータGjを補正して姿勢の推定精度を改善できる。
姿勢推定部20eは、画像のデータGjを取得する際の周囲環境に関する情報、作業機械の経年数、または作業機械の個体差の少なくともいずれか1つに応じて作業部40の姿勢を推定してもよい。この場合、画像のデータGjを補正して姿勢の推定精度を改善できる。
情報処理システム10は、参照画像のデータGsの色情報を圧縮または除去する色情報除去部20nを有してもよい。この場合、記憶部30の記憶容量および処理速度の点で有利になる。
情報処理システム10は、参照画像のデータGsの背景画像を除去する背景情報除去部20kを有してもよい。この場合、背景画像に起因する推定精度の低下を抑制できる。
次に、本発明の第2~第4実施形態を説明する。第2~第4実施形態の図面および説明では、第1実施形態と同一または同等の構成要素、部材には、同一の符号を付する。第1実施形態と重複する説明を適宜省略し、第1実施形態と相違する構成について重点的に説明する。
[第2実施形態]
本発明の第2実施形態は、作業機械の情報処理方法である。この情報処理方法は、作業機械100の作業部40の参照画像のデータGsと作業機械100の作業部40の姿勢のデータKsとを対応づけて記憶部30に記憶するステップ(S72~S75)と、参照画像のデータGsと比較するために作業部40の画像のデータGjを取得するステップ(S82)と、画像のデータGjと記憶部30の記憶情報とに基づいて作業機械100の作業部40の姿勢を推定するステップ(S86)とを含む。
上述の推定するステップ(S86)は、参照画像のデータGsと姿勢のデータKsとをもとに機械学習により生成された姿勢推定モデルを参照するステップを含んでもよい。第2実施形態の構成によれば、第1実施形態と同様の作用効果を奏する。
[第3実施形態]
本発明の第3実施形態は、建設機械1000である。この建設機械1000は、作業部40と、作業部40の参照画像のデータGsと作業機械100の作業部40の姿勢のデータKsとを対応づけて記憶している記憶部30と、参照画像のデータGsと比較するために作業部40の画像のデータGjを取得する画像情報取得部12と、画像のデータGjと記憶部30の記憶情報とに基づいて作業機械100の作業部40の姿勢を推定する姿勢推定部20eとを備える。
建設機械1000は、例えば腕機構48に取り付けられたバケット46を移動させて建設作業を行う機械であってもよい。建設機械1000の腕機構48には、バケットの代わりにフォーク、ハンマー、クラッシャー等の多様なアタッチメントが取り付けられてもよい。第3実施形態の構成によれば、第1実施形態と同様の作用効果を奏する。
[第4実施形態]
本発明の第4実施形態は、コンピュータプログラムP100である。このコンピュータプログラムP100は、作業機械100の作業部40の参照画像のデータGsと作業機械100の作業部40の姿勢のデータKsとを対応づけて記憶部30に記憶する機能と、参照画像のデータGsと比較するために作業機械100の作業部40の画像のデータGjを取得する機能と、画像のデータGjと記憶部の記憶情報とに基づいて作業機械100の作業部40の姿勢を推定する機能とをコンピュータに実現させる。
コンピュータプログラムP100は、これらの機能を制御部20の機能ブロックに対応する複数のモジュールが実装されたアプリケーションプログラムとして、情報処理システム10のストレージ(例えば記憶部30)にインストールされてもよい。コンピュータプログラムP100は、情報処理システム10のプロセッサ(例えばCPU)のメインメモリに読み出しされて実行されてもよい。第4実施形態の構成によれば、第1実施形態と同様の作用効果を奏する。
以上、本発明の実施形態の例について詳細に説明した。上述した実施形態は、いずれも本発明を実施するにあたっての具体例を示したものにすぎない。実施形態の内容は、本発明の技術的範囲を限定するものではなく、請求の範囲に規定された発明の思想を逸脱しない範囲において、構成要素の変更、追加、削除などの多くの設計変更が可能である。上述の実施形態では、このような設計変更が可能な内容に関して、「実施形態の」「実施形態では」等との表記を付して説明しているが、そのような表記のない内容に設計変更が許容されないわけではない。
[変形例]
以下、変形例について説明する。変形例の図面および説明では、実施形態と同一または同等の構成要素、部材には、同一の符号を付する。実施形態と重複する説明を適宜省略し、第1実施形態と相違する構成について重点的に説明する。
第1実施形態では、姿勢推定モデルは、個々の作業機械100で生成されてその作業機械100のモデル記憶部32に記憶される例を示したが、本発明はこれに限定されない。姿勢推定モデルは、基準となる作業機械により生成されて、個々の作業機械100のモデル記憶部32に予め格納されてもよい。また、姿勢推定モデルは、適宜のタイミングに更新されてもよい。
第1実施形態では、色情報除去部20nが参照画像のデータGsおよび画像のデータGjから色情報を完全に除去する例を示したが、本発明はこれに限定されない。色情報除去部20nは、減色などにより、参照画像のデータGsおよび画像のデータGjの色情報を圧縮するものであってもよい。
第1実施形態の説明では、画像情報取得部12が1つの画像センサで構成される例を示したが、本発明はこれに限定されない。画像情報取得部12は、複数の画像センサで構成されてもよい。例えば、画像情報取得部12は、いわゆるステレオカメラを含んでもよい。
第1実施形態の説明では、画像情報取得部12が操縦室38の屋根に設けられる例を示したが、本発明はこれに限定されない。例えば、画像情報取得部12は、操縦室38の側面や上部車体部34のカバー上に配置されてもよい。また、画像情報取得部12は、作業部40に上に配置されてもよい。
第1実施形態の説明では、作業機械100がバケット46を移動させて建設作業を行う建設機械である例を示したが、本発明はこれに限定されず、建設機械以外の作業機械にも適用できる。
第1実施形態の説明では、腕機構48が操縦室38の右側に設けられる例を示したが、本発明はこれに限定されない。例えば、腕機構は、操縦室の左側や操縦室の前方に設けられてもよい。
第1実施形態の説明では、作業機械100が操縦室38から操縦者によって操縦される例を示したが、本発明はこれに限定されない。例えば、作業機械は、自動操縦や遠隔操縦されるものであってもよい。
上述の変形例は、第1実施形態と同様の作用・効果を奏する。
上述した実施形態と変形例の任意の組み合わせもまた本発明の実施形態として有用である。組み合わせによって生じる新たな実施形態は、組み合わされる実施形態および変形例それぞれの効果をあわせもつ。
10・・・情報処理システム、20d・・・モデル生成部、20e・・・姿勢推定部、20k・・・背景情報除去部、20n・・・色情報除去部、30・・・記憶部、32・・・モデル記憶部、40・・・作業部、42・・・ブーム、44・・・アーム、46・・・バケット、100・・・作業機械、1000・・・建設機械。

Claims (11)

  1. 作業機械の作業部の参照画像のデータと前記作業機械の作業部の姿勢のデータとを対応づけて記憶している記憶部と、
    前記参照画像のデータと比較するために前記作業機械の作業部の画像のデータを取得する取得部と
    前記画像のデータを取得する際の前記作業機械の経年数または前記作業機械の個体差に応じて前記画像のデータを補正する補正部と
    を備える情報処理システム。
  2. 作業機械の作業部の参照画像のデータと前記作業機械の作業部の姿勢のデータとを対応づけて記憶している記憶部と、
    前記参照画像のデータと比較するために前記作業機械の作業部の画像のデータを取得する取得部と、
    前記画像のデータと前記記憶部の記憶情報とに基づいて前記作業機械の作業部の姿勢を推定する推定部と、を備え、
    前記推定部は、前記画像のデータを取得する際の前記作業機械の経年数または前記作業機械の個体差に応じて推定する
    情報処理システム。
  3. 前記取得部は前記作業機械の作業部と一体的に旋回するように構成される請求項1または2に記載の情報処理システム。
  4. 前記記憶部は前記参照画像のデータおよび前記姿勢のデータをもとに機械学習により生成された姿勢推定モデルを記憶することを特徴とする請求項1から3のいずれかに記載の情報処理システム。
  5. 前記参照画像のデータの色情報を圧縮または除去する色情報除去部を有する
    請求項1からのいずれかに記載の情報処理システム。
  6. 前記参照画像のデータの背景画像を除去する背景情報除去部を有する
    請求項1からのいずれかに記載の情報処理システム。
  7. 作業機械の作業部の参照画像のデータと前記作業機械の作業部の姿勢のデータとを対応づけて記憶している記憶部と、
    前記作業機械の作業部と一体的に旋回するように構成されるとともに前記参照画像のデータと比較するために前記作業機械の作業部の画像のデータを取得する取得部と、
    前記画像のデータと前記記憶部の記憶情報とに基づいて前記作業機械の作業部の姿勢を推定する推定部と、を備え、
    前記推定部は、前記画像のデータを取得する際の前記作業機械の経年数または前記作業機械の個体差に応じて推定する
    報処理システム。
  8. 作業機械の作業部の参照画像のデータと前記作業機械の作業部の姿勢のデータとを対応づけて記憶部に記憶するステップと、
    前記参照画像のデータと比較するために前記作業部の画像のデータを取得するステップと、
    前記画像のデータと前記記憶部の記憶情報とに基づいて前記作業機械の作業部の姿勢を推定するステップであって、前記画像のデータを取得する際の前記作業機械の経年数または前記作業機械の個体差に応じて推定するステップ
    を含む情報処理方法。
  9. 前記推定するステップは、前記参照画像のデータと前記姿勢のデータとをもとに機械学習により生成された姿勢推定モデルを参照するステップを含む
    請求項に記載の情報処理方法。
  10. 作業機械の作業部の参照画像のデータと前記作業機械の作業部の姿勢のデータとを対応づけて記憶部に記憶する機能と、
    前記参照画像のデータと比較するために前記作業機械の作業部の画像のデータを取得する機能と、
    前記画像のデータと前記記憶部の記憶情報とに基づいて前記作業機械の作業部の姿勢を推定する機能であって、前記画像のデータを取得する際の前記作業機械の経年数または前記作業機械の個体差に応じて推定する機能
    をコンピュータに実現させるためのコンピュータプログラム。
  11. 作業機械の作業部と、
    前記作業機械の作業部の参照画像のデータと前記作業機械の作業部の姿勢のデータとを対応づけて記憶している記憶部と、
    前記参照画像のデータと比較するために前記作業機械の作業部の画像のデータを取得する取得部と、
    前記画像のデータと前記記憶部の記憶情報とに基づいて前記作業機械の作業部の姿勢を推定する推定部と、を備え、
    前記推定部は、前記画像のデータを取得する際の前記作業機械の経年数または前記作業機械の個体差に応じて推定する
    設機械。
JP2019152111A 2019-08-22 2019-08-22 情報処理システム、情報処理方法、建設機械 Active JP7383255B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019152111A JP7383255B2 (ja) 2019-08-22 2019-08-22 情報処理システム、情報処理方法、建設機械
KR1020200104588A KR20210023747A (ko) 2019-08-22 2020-08-20 정보 처리 시스템, 정보 처리 방법, 건설 기계
CN202010847464.1A CN112414299A (zh) 2019-08-22 2020-08-21 信息处理系统、信息处理方法以及建筑机械

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019152111A JP7383255B2 (ja) 2019-08-22 2019-08-22 情報処理システム、情報処理方法、建設機械

Publications (2)

Publication Number Publication Date
JP2021033568A JP2021033568A (ja) 2021-03-01
JP7383255B2 true JP7383255B2 (ja) 2023-11-20

Family

ID=74676542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019152111A Active JP7383255B2 (ja) 2019-08-22 2019-08-22 情報処理システム、情報処理方法、建設機械

Country Status (3)

Country Link
JP (1) JP7383255B2 (ja)
KR (1) KR20210023747A (ja)
CN (1) CN112414299A (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004112144A (ja) 2002-09-17 2004-04-08 Nissan Motor Co Ltd 前方車両追跡システムおよび前方車両追跡方法
JP2008240361A (ja) 2007-03-27 2008-10-09 Komatsu Ltd 建設機械の省燃費運転支援方法および省燃費運転支援システム
JP2009146337A (ja) 2007-12-18 2009-07-02 Kyosan Electric Mfg Co Ltd 車両存否判定装置、車両存否判定方法及びプログラム
WO2016125915A1 (ja) 2016-03-01 2016-08-11 株式会社小松製作所 評価装置及び評価方法
JP2017053627A (ja) 2015-09-07 2017-03-16 Kyb株式会社 角度検出装置
CN109961471A (zh) 2017-12-14 2019-07-02 北京猎户星空科技有限公司 一种图像中物体位置的标注方法、装置及电子设备
CN110000795A (zh) 2019-05-15 2019-07-12 苏州市职业大学 一种视觉伺服控制的方法、系统及设备
CN110076772A (zh) 2019-04-03 2019-08-02 浙江大华技术股份有限公司 一种机械臂的抓取方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120162377A1 (en) * 2009-09-03 2012-06-28 Ccs Inc. Illumination/image-pickup system for surface inspection and data structure
JP6343938B2 (ja) * 2014-01-14 2018-06-20 セイコーエプソン株式会社 ロボット、制御装置、ロボットシステム及び制御方法
JP6438512B2 (ja) * 2017-03-13 2018-12-12 ファナック株式会社 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法
CN106918306A (zh) * 2017-04-22 2017-07-04 许晟明 基于光场单相机的工业产品三维形貌实时检测系统
JP2018178711A (ja) * 2018-08-09 2018-11-15 株式会社小松製作所 施工現場の形状情報の生成方法及び作業機械の制御システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004112144A (ja) 2002-09-17 2004-04-08 Nissan Motor Co Ltd 前方車両追跡システムおよび前方車両追跡方法
JP2008240361A (ja) 2007-03-27 2008-10-09 Komatsu Ltd 建設機械の省燃費運転支援方法および省燃費運転支援システム
JP2009146337A (ja) 2007-12-18 2009-07-02 Kyosan Electric Mfg Co Ltd 車両存否判定装置、車両存否判定方法及びプログラム
JP2017053627A (ja) 2015-09-07 2017-03-16 Kyb株式会社 角度検出装置
WO2016125915A1 (ja) 2016-03-01 2016-08-11 株式会社小松製作所 評価装置及び評価方法
CN109961471A (zh) 2017-12-14 2019-07-02 北京猎户星空科技有限公司 一种图像中物体位置的标注方法、装置及电子设备
CN110076772A (zh) 2019-04-03 2019-08-02 浙江大华技术股份有限公司 一种机械臂的抓取方法及装置
CN110000795A (zh) 2019-05-15 2019-07-12 苏州市职业大学 一种视觉伺服控制的方法、系统及设备

Also Published As

Publication number Publication date
CN112414299A (zh) 2021-02-26
KR20210023747A (ko) 2021-03-04
JP2021033568A (ja) 2021-03-01

Similar Documents

Publication Publication Date Title
JP4961860B2 (ja) ロボット装置及びロボット装置の制御方法
US9304501B2 (en) Coordinated joint motion control system with position error correction
JP6931457B2 (ja) モーション生成方法、モーション生成装置、システム及びコンピュータプログラム
US20140018957A1 (en) Robot system, robot, robot control device, robot control method, and robot control program
US11040451B2 (en) Teaching device and teaching method
KR102261469B1 (ko) 로봇 제어 장치, 로봇의 관절의 각도를 구하는 방법, 프로그램
US20060195228A1 (en) Robot locus control method and apparatus and program of robot locus control method
US10481571B2 (en) Robot controller which automatically sets interference region for robot
JP2013132731A (ja) ロボット制御システム、ロボットシステム及びロボット制御方法
JP2019107704A (ja) ロボットシステム及びロボット制御方法
CN109591014A (zh) 一种双臂协作机器人的双臂协调搬运方法
JP3415427B2 (ja) ロボットシミュレーションにおけるキャリブレーション装置
US20210073445A1 (en) Robotic assembly of a mesh surface
JP7383255B2 (ja) 情報処理システム、情報処理方法、建設機械
CN112847328A (zh) 控制系统、控制器、和控制方法
JP2014188617A (ja) ロボット制御システム、ロボット、ロボット制御方法及びプログラム
JP6217322B2 (ja) ロボット制御装置、ロボット及びロボット制御方法
JP6410411B2 (ja) パターンマッチング装置及びパターンマッチング方法
JP5228856B2 (ja) 作業対象物の位置検出方法および位置検出装置
CN112482460B (zh) 信息处理装置及系统和方法、计算机程序以及建筑机械
JP6571723B2 (ja) 動作プログラムを生成するプログラミング装置、及びプログラム生成方法
JP7374867B2 (ja) 制御システム、ローカルコントローラ及び制御方法
JP2020159147A (ja) 自動操縦システム
CN112207813B (zh) 运算装置、机器学习方法以及非暂时性存储介质
JP7447568B2 (ja) シミュレーション装置およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231030

R150 Certificate of patent or registration of utility model

Ref document number: 7383255

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150