JP6737368B1 - クレーン - Google Patents

クレーン Download PDF

Info

Publication number
JP6737368B1
JP6737368B1 JP2019053101A JP2019053101A JP6737368B1 JP 6737368 B1 JP6737368 B1 JP 6737368B1 JP 2019053101 A JP2019053101 A JP 2019053101A JP 2019053101 A JP2019053101 A JP 2019053101A JP 6737368 B1 JP6737368 B1 JP 6737368B1
Authority
JP
Japan
Prior art keywords
luggage
center
crane
computer
gravity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019053101A
Other languages
English (en)
Other versions
JP2020152530A (ja
Inventor
マルダン マムティミン
マルダン マムティミン
昌司 西本
昌司 西本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tadano Ltd
Original Assignee
Tadano Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tadano Ltd filed Critical Tadano Ltd
Priority to JP2019053101A priority Critical patent/JP6737368B1/ja
Application granted granted Critical
Publication of JP6737368B1 publication Critical patent/JP6737368B1/ja
Publication of JP2020152530A publication Critical patent/JP2020152530A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Control And Safety Of Cranes (AREA)

Abstract

【課題】荷物の重心位置を推定できるクレーンを提供する。ひいては、重心位置の上方で吊り具にフックを引っ掛ける作業が容易となり、且つ、かかる作業を素早く終えることが可能となるクレーンを提供する。【解決手段】ブーム7と、ブーム7から垂下するワイヤロープ8と、ワイヤロープ8の巻き入れ及び巻き出しによって昇降するフック9と、を備えたクレーン1において、地上に置かれた荷物Lを撮影するカメラ41と、カメラ41が撮影した荷物Lの画像Iに基づいて処理を行うコンピュータ20と、を具備し、コンピュータ20は、多階層のニューラルネットワーク50を用いた人工知能機能を有しており、ニューラルネットワーク50の入力層51に荷物Lの画像Iを入力すると、ニューラルネットワーク50の出力層52から荷物Lの重心位置を出力する、とした。【選択図】図7

Description

本発明は、荷物の重心位置を推定できるクレーンに関する。ひいては、重心位置の上方で吊り具にフックを引っ掛ける作業が容易となり、且つ、かかる作業を素早く終えることが可能となるクレーンに関する。
従来より、代表的な作業車両であるクレーンが知られている。クレーンは、主に走行体と旋回体で構成されている。走行体は、複数の車輪を備え、自走可能としている。旋回体は、ブームのほかにワイヤロープやフックを備え、荷物を吊り上げた状態でこれを運搬可能としている。
ところで、荷物を吊り上げる際には、荷物に固定された吊り具にフックを引っ掛けなければならない(特許文献1参照)。このとき、クレーンの玉掛け作業者は、経験に基づいて荷物の重心位置を想像し、重心位置の上方にフックを誘導する必要がある。しかし、荷物の重心位置を想像するのは、玉掛け作業者の経験に依るところが大きく、あらゆる荷物の正確な重心位置を想像するのは、非常に困難であるといわざるを得ない。このような理由から、重心位置の上方で吊り具にフックを引っ掛ける作業は容易でなく、且つ、かかる作業を素早く終えることができないという問題があった。
特開2018−95375号公報
荷物の重心位置を推定できるクレーンを提供する。ひいては、重心位置の上方で吊り具にフックを引っ掛ける作業が容易となり、且つ、かかる作業を素早く終えることが可能となるクレーンを提供する。
第一の発明は、
ブームと、
前記ブームから垂下するワイヤロープと、
前記ワイヤロープの巻き入れ及び巻き出しによって昇降するフックと、を備えたクレーンにおいて、
地上に置かれた荷物を撮影するカメラと、
前記カメラが撮影した荷物の画像に基づいて処理を行うコンピュータと、を具備し、
前記コンピュータは、多階層のニューラルネットワークを用いた人工知能機能を有しており、前記ニューラルネットワークの入力層に荷物の画像を入力すると、前記ニューラルネットワークの出力層から荷物の重心位置を出力する、ものである。
第二の発明は、第一の発明に係るクレーンにおいて、
前記ニューラルネットワークは、ニューロンとニューロンがシナプスで結合された脳神経回路を模しており、荷物の二次元形状情報と荷物の重心位置情報の組み合わせを学習用データとして前記シナプスに相当する回路の重み付けを調整した、ものである。
第三の発明は、第二の発明に係るクレーンにおいて、
荷物の二次元形状情報は、仮想荷物を仮想平面に投影したものであり、
荷物の重心位置情報は、前記仮想荷物における重心位置を同じく仮想平面に投影した、ものである。
第四の発明は、第二又は第三の発明に係るクレーンにおいて、
前記コンピュータは、荷物の画像と荷物の二次元形状情報との位置合せによって荷物の位置及び姿勢を把握し、荷物の重心位置をクレーンの座標系で表す、ものである。
第五の発明は、第一から第四のいずれかの発明に係るクレーンにおいて、
荷物の画像を映し出すディスプレイを具備し、
前記コンピュータは、前記ディスプレイに映し出された荷物の画像に対して重心位置を表示する、ものである。
第六の発明は、第一から第五のいずれかの発明に係るクレーンにおいて、
前記ブームを稼動させるアクチュエータを具備し、
前記コンピュータは、前記アクチュエータを自動的に制御して重心位置の上方に前記フックを誘導する、ものである。
第一の発明に係るクレーンは、地上に置かれた荷物を撮影するカメラと、カメラが撮影した荷物の画像に基づいて処理を行うコンピュータと、を具備している。そして、コンピュータは、多階層のニューラルネットワークを用いた人工知能機能を有しており、ニューラルネットワークの入力層に荷物の画像を入力すると、ニューラルネットワークの出力層から荷物の重心位置を出力する。かかるクレーンによれば、あらゆる荷物の重心位置を推定できる。従って、重心位置の上方で吊り具にフックを引っ掛ける作業が容易となり、且つ、かかる作業を素早く終えることが可能となる。
第二の発明に係るクレーンにおいて、ニューラルネットワークは、ニューロンとニューロンがシナプスで結合された脳神経回路を模しており、荷物の二次元形状情報と荷物の重心位置情報の組み合わせを学習用データとしてシナプスに相当する回路の重み付けを調整したものである。かかるクレーンによれば、荷物の画像に基づいて重心位置を推定する機能を獲得できる。
第三の発明に係るクレーンにおいて、荷物の二次元形状情報は、仮想荷物を仮想平面に投影したものであり、荷物の重心位置情報は、仮想荷物における重心位置を同じく仮想平面に投影したものである。かかるクレーンによれば、一方向から撮影された荷物の画像に基づいて重心位置を推定する機能を獲得できる。
第四の発明に係るクレーンにおいて、コンピュータは、荷物の画像と荷物の二次元形状情報との位置合せによって荷物の位置及び姿勢を把握し、荷物の重心位置をクレーンの座標系で表す。かかるクレーンによれば、重心位置の上方にフックを誘導する際の制御が容易となる。
第五の発明に係るクレーンは、荷物の画像を映し出すディスプレイを具備している。そして、コンピュータは、ディスプレイに映し出された荷物の画像に対して重心位置を表示する。かかるクレーンによれば、操縦者が荷物の重心位置を視認することができる。
第六の発明に係るクレーンは、ブームを稼動させるアクチュエータを具備している。そして、コンピュータは、アクチュエータを自動的に制御して重心位置の上方にフックを誘導する。かかるクレーンによれば、操縦者が各種操作具を操作せずとも、荷物の重心位置の上方にフックを誘導することができる。
クレーンを示す図。 キャビンの内部を示す図。 操縦システムの構成を示す図。 カメラの狙点と画像領域を示す図。 コンピュータの構成を示す図。 ニューラルネットワークの学習フェーズを示す図。 ニューラルネットワークの利用フェーズを示す図。 学習用データの作成方法を示す図。 荷物の重心位置を推定してフックを誘導する制御態様を示す図。 荷物の重心位置を表示した状態を示す図。 フックの誘導方向を表示した状態を示す図。 フックの誘導が完了した旨を表示した状態を示す図。 フックの降下が完了した旨を表示した状態を示す図。
本願に開示する技術的思想は、以下に説明するクレーン1のほか、他のクレーンにも適用できる。
まず、図1及び図2を用いて、クレーン1について説明する。
クレーン1は、主に走行体2と旋回体3で構成されている。
走行体2は、左右一対の前輪4と後輪5を備えている。また、走行体2は、荷物Lの運搬作業を行う際に接地させて安定を図るアウトリガ6を備えている。なお、走行体2は、アクチュエータによって、その上部に支持する旋回体3を旋回自在としている。
旋回体3は、その後部から前方へ突き出すようにブーム7を備えている。そのため、ブーム7は、アクチュエータによって旋回自在となっている(矢印A参照)。また、ブーム7は、アクチュエータによって伸縮自在となっている(矢印B参照)。更に、ブーム7は、アクチュエータによって起伏自在となっている(矢印C参照)。
加えて、ブーム7には、ワイヤロープ8が架け渡されている。ブーム7の先端部分から垂下するワイヤロープ8には、フック9が取り付けられている。また、ブーム7の基端側近傍には、ウインチ10が配置されている。ウインチ10は、アクチュエータと一体的に構成されており、ワイヤロープ8の巻き入れ及び巻き出しを可能としている。そのため、フック9は、アクチュエータによって昇降自在となっている(矢印D参照)。なお、旋回体3は、ブーム7の側方にキャビン11を備えている。キャビン11の内部には、後述する旋回操作具21や伸縮操作具22、起伏操作具23、巻回操作具24が設けられている。また、後述するディスプレイ42が設けられている。
次に、図3を用いて、操縦システム12の構成について説明する。
操縦システム12は、主にコンピュータ20で構成されている。コンピュータ20には、各種操作具21〜24が接続されている。また、コンピュータ20には、各種バルブ25〜28が接続されている。
前述したように、ブーム7は、アクチュエータによって旋回自在となっている(図1における矢印A参照)。本願においては、かかるアクチュエータを旋回用油圧モータ31と定義する。旋回用油圧モータ31は、方向制御弁である旋回用バルブ25によって適宜に稼動される。つまり、旋回用油圧モータ31は、旋回用バルブ25が作動油の流動方向を切り替えることで適宜に稼動される。なお、旋回用バルブ25は、コンピュータ20の指示に基づいて稼動される。ブーム7の旋回角度や旋回速度は、図示しないセンサによって検出される。
また、前述したように、ブーム7は、アクチュエータによって伸縮自在となっている(図1における矢印B参照)。本願においては、かかるアクチュエータを伸縮用油圧シリンダ32と定義する。伸縮用油圧シリンダ32は、方向制御弁である伸縮用バルブ26によって適宜に稼動される。つまり、伸縮用油圧シリンダ32は、伸縮用バルブ26が作動油の流動方向を切り替えることで適宜に稼動される。なお、伸縮用バルブ26は、コンピュータ20の指示に基づいて稼動される。ブーム7の伸縮長さや伸縮速度は、図示しないセンサによって検出される。
更に、前述したように、ブーム7は、アクチュエータによって起伏自在となっている(図1における矢印C参照)。本願においては、かかるアクチュエータを起伏用油圧シリンダ33と定義する。起伏用油圧シリンダ33は、方向制御弁である起伏用バルブ27によって適宜に稼動される。つまり、起伏用油圧シリンダ33は、起伏用バルブ27が作動油の流動方向を切り替えることで適宜に稼動される。なお、起伏用バルブ27は、コンピュータ20の指示に基づいて稼動される。ブーム7の起伏角度や起伏速度は、図示しないセンサによって検出される。
加えて、前述したように、フック9は、アクチュエータによって昇降自在となっている(図1における矢印D参照)。本願においては、かかるアクチュエータを巻回用油圧モータ34と定義する。巻回用油圧モータ34は、方向制御弁である巻回用バルブ28によって適宜に稼動される。つまり、巻回用油圧モータ34は、巻回用バルブ28が作動油の流動方向を切り替えることで適宜に稼動される。なお、巻回用バルブ28は、コンピュータ20の指示に基づいて稼動される。フック9の吊下長さや昇降速度は、図示しないセンサによって検出される。
更に加えて、本操縦システム12は、カメラ41とディスプレイ42を有している。カメラ41とディスプレイ42も、コンピュータ20に接続されている。
カメラ41は、地上に置かれた荷物Lを撮影するものである。カメラ41は、地上に置かれた荷物Lを真上或いは斜め上方から撮影すべく、ブーム7に取り付けられている。本クレーン1においては、ブーム7の先端部分に取り付けられている(図1参照)。
ディスプレイ42は、様々な画像を映し出すものである。ディスプレイ42は、操縦者が各種操作具21〜24を操作しながら視認できるよう、キャビン11の内部における前方側に取り付けられている(図2参照)。なお、ディスプレイ42は、コンピュータ20に接続されている(図3参照)。そのため、コンピュータ20は、ディスプレイ42を通じ、操縦者へ情報を提供することができる。他方で、ディスプレイ42は、いわゆるタッチパネルであることから、操縦者の入力機器であるともいえる。そのため、操縦者は、ディスプレイ42を通じ、コンピュータ20へ情報を提供することもできる。
次に、図4を用いて、カメラ41の狙点Pと画像領域Rについて説明する。
前述したように、ブーム7は、旋回動作と伸縮動作と起伏動作を可能としている。このとき、カメラ41は、ブーム7に取り付けられているので、ブーム7の稼動に応じてともに移動する。すると、カメラ41の狙点Pも移動することとなり、ひいては狙点Pを中心とする画像領域Rも移動する。
ここで、本願においては、地上に置かれた荷物Lが画像領域Rの内側に含まれているものとする。画像領域Rは、ディスプレイ42に映し出される。ディスプレイ42には、カメラ41の狙点Pが表示される(図10から図13参照)。また、ディスプレイ42には、走行体2の方向を表す標識Maが表示される(図10から図13参照)。更に、ディスプレイ42には、東西南北の方位を表す標識Mbが表示される(図10から図13参照)。なお、本クレーン1において、狙点Pがブーム7の先端部分における鉛直下方にあることを考慮すると、かかる狙点Pは、フック9を降下させたときの着地点にほぼ等しいといえる。
次に、図5から図8を用いて、コンピュータ20の構成について説明する。
コンピュータ20は、ROMによって情報記憶部20mを構成している。情報記憶部20mは、クレーン1の制御に要する様々なプログラムが記憶されている。
また、コンピュータ20は、CPUやROM、RAMなどによって情報受信部20iを構成している。情報受信部20iは、通信ネットワークNtを経由して遠隔サーバSvに格納されている様々な情報を取得できる。例えば荷物Lに関する情報(形状や重さ、重心位置など)を取得することができる。取得した情報は、情報記憶部20mに納められる。
更に、コンピュータ20は、CPUやROM、RAMなどによって情報処理部20pを構成している。コンピュータ20は、カメラ41が撮影した荷物Lの画像I(図7参照)に基づいて処理を行う。本コンピュータ20においては、多階層のニューラルネットワーク50を用いた人工知能機能によって処理を行うものとしている。「多階層のニューラルネットワーク」とは、入力層51と出力層52のほか、複数の隠れ層53からなる三層以上のニューラルネットワークを指す。また、「人工知能」とは、『人工的につくられた人間のような知能』と定義できる。このような知能は、『表現学習を可能としたコンピュータ』、より詳細には『データの中から特徴量を生成してモデル化できるコンピュータ』によって実現される。
ニューラルネットワーク50は、ニューロンとニューロンがシナプスで結合された脳神経回路を模したものである(図5参照)。ニューラルネットワーク50は、ニューロンに相当するノード54をシナプスに相当する回路55でつなぎ、ある階層のノード54から次の階層のノード54へ信号を伝達するようにプログラム上で表現されている。なお、ニューラルネットワーク50は、回路55ごとに結合強度を表す重み付けがなされており、与えられた信号値に重みWをかけあわせて伝達する。そして、それぞれのノード54で閾値を超える度に次のノード54へ信号を伝達していくのである。
ニューラルネットワーク50は、学習フェーズを経ることで荷物Lの重心位置Gを推定するという機能を獲得する(図6参照)。学習フェーズにおいては、入力データに対して正しい出力データを導き出すよう、回路55ごとの重み付けが調整される。なお、ニューラルネットワークを作り上げる学習方法は、一般的に「機械学習」と呼ばれる。但し、本ニューラルネットワーク50を作り上げる学習方法は、機械学習の一態様として確立された「深層学習(ディープラーニング)」である。深層学習は、人間を介することなく、自ら特徴量を生成してモデル化を行う点で機械学習とは異なる。
こうして作り上げたニューラルネットワーク50は、利用フェーズにおいて荷物Lの重心位置Gを推定する(図7参照)。建築構造物の資材は、規格によって形状が定まっているものが多いため、適正な学習用データDsを用いた適正な学習フェーズを経れば、正確な重心位置Gを推定できる。但し、情報処理部20pに別途のプログラムを構成し、正確な重心位置Gの推定ができないと判断したのであれば、これをキャンセルするとしてもよい。あまり一般的でない荷物Lについて重心位置Gを推定するのは困難だからである。この場合は、キャンセルした旨をディスプレイ42に表示することが考えられる。
ところで、深層学習を行うには、学習用データDsが必要となる。本願における学習用データDsは、荷物Lの二次元形状情報Iiと荷物Lの重心位置情報Giを組み合わせたものである(図8参照)。荷物Lの二次元形状情報Iiは、仮想荷物(三次元CADソフトによって荷物Lを再現したものを指す)Liを仮想平面Siに投影したものである。また、荷物Lの重心位置情報Giは、仮想荷物Liにおける重心位置を同じく仮想平面Siに投影したものである。そして、二次元形状情報Iiと重心位置情報Giは、投影用光源に配置された仮想カメラCiが撮影したとして保存される。学習フェーズにおいては、数千件から数万件の学習用データDsを利用し、荷物Lの二次元形状情報Iiから重心位置情報Giを推定できるようになるまで重みWの値を修正する。つまり、ひたすら推定と答え合わせを繰り返し、復元エラーが最小となる重みWの値を見つけ出すのである。このような手法を誤差逆伝播法(Backpropagation)という。
次に、図9から図13を用いて、荷物Lの重心位置Gを推定してフック9を誘導する制御態様について説明する。但し、以下に説明する制御態様は、クレーン1にて実現した一実施例であり、これに限定するものではない。
ステップS1において、コンピュータ20は、カメラ41が撮影した画像を取得する。コンピュータ20は、走行体2の位置とブーム7の姿勢(旋回角度・伸縮長さ・起伏角度で表される)を考慮し、かかる画像の撮影位置や撮影角度を把握する。そのため、コンピュータ20は、カメラ41の狙点Pのほか、走行体2の方向や東西南北の方位をディスプレイ42に表示させることができる。
ステップS2において、コンピュータ20は、取得した画像における荷物Lを捕捉する。コンピュータ20は、画像にフィルタをかけて輪郭を抽出するなどの所作により、画像に含まれる荷物Lを見つけ出す。そして、コンピュータ20は、複数の荷物Lから操縦者が選択した一の荷物Lを捕捉する。このとき、コンピュータ20は、捕捉している荷物LをカーソルCで囲うとしてもよい。
ステップS3において、コンピュータ20は、捕捉している荷物Lの重心位置Gを推定する。コンピュータ20は、荷物Lの画像Iを入力データとしてニューラルネットワーク50に入力し、このニューラルネットワーク50から出力される出力データを荷物Lの重心位置Gとして推定する(図7参照)。こうして、コンピュータ20は、荷物Lの重心位置Gをディスプレイ42に表示させることができる。
ステップS4において、コンピュータ20は、クレーン1の座標系で荷物Lの重心位置Gを把握する。まず、コンピュータ20は、例えばPOC(Phase−Only Correlation)アルゴリズムを用いて荷物Lの画像Iと荷物Lの二次元形状情報Iiとの位置合せを行う。これは、荷物Lの画像Iに二次元形状情報Iiの座標系(図8参照)を当てはめ、かかる座標系とクレーン1の座標系(図4参照)との差異から回転行列を求めるためである。こうすることで、コンピュータ20は、クレーン1の座標系で荷物Lの位置及び姿勢を把握することができる。更には、クレーン1の座標系で荷物Lの重心位置Gを把握することができる。
ステップS5において、コンピュータ20は、推定した重心位置Gの上方にフック9を誘導する。コンピュータ20は、旋回用油圧モータ31や伸縮用油圧シリンダ32、起伏用油圧シリンダ33を適宜に制御し、ブーム7を稼動させることによって重心位置Gの上方にフック9を誘導する。このとき、コンピュータ20は、ディスプレイ42を見る操縦者にもフック9の誘導方向が分かるように矢印Aを表示させるとしてもよい(図11参照)。かかる矢印Aは、フック9の誘導が完了したときに消滅し、代わりに誘導が完了した旨のコメントC1を表示するとしてもよい(図12参照)。
加えて、コンピュータ20は、巻回用油圧モータ34を適宜に制御して重心位置Gの直上までフック9を降下させるのが好ましい。これは、コンピュータ20が荷物Lの高さh(図1参照)を把握するとともにフック9の高さH(図1参照)を把握することによって実現できる。なお、荷物Lの高さhを把握するためには、該当する荷物Lを特定して形状と姿勢を把握する必要がある。また、フック9の高さHは、ブーム7の姿勢(伸縮長さ・起伏角度)とフック9の吊下長さから算出することができる。このときも、降下が完了した旨のコメントC2を表示するとしてもよい(図13参照)。
更に加えて、本コンピュータ20においては、画像にフィルタをかけて輪郭を抽出するなどの所作により、画像に含まれる荷物Lを見つけ出すとしている。しかし、例えばFCN(Fully Convolutional Network)アルゴリズムを用いて荷物Lを見つけ出すとしてもよい。地上の凹凸を測定したり或いは色彩を検出したりする機能を取り入れ、これらの結果を用いて画像に含まれる荷物Lを見つけ出すとしてもよい。また、本コンピュータ20においては、操縦者が選択した荷物Lを捕捉し、かかる荷物Lについて重心位置Gを推定する対象としている。しかし、玉掛け作業者が遠隔操作端末を携帯しており、玉掛け作業者が選択した荷物Lについて重心位置Gを推定するとしてもよい。更に、複数の荷物Lについて順次又は同時に重心位置Gを推定するとしてもよい。この場合は、複数の荷物Lの画像Iに対して重心位置Gが表示される。
次に、本クレーン1に適用された技術的思想とその効果についてまとめる。
本クレーン1は、地上に置かれた荷物Lを撮影するカメラ41と、カメラ41が撮影した荷物Lの画像Iに基づいて処理を行うコンピュータ20と、を具備している。そして、コンピュータ20は、多階層のニューラルネットワーク50を用いた人工知能機能を有しており、ニューラルネットワーク50の入力層51に荷物Lの画像Iを入力すると、ニューラルネットワーク50の出力層52から荷物Lの重心位置Gを出力する。かかるクレーン1によれば、あらゆる荷物Lの重心位置Gを推定できる。従って、重心位置Gの上方で吊り具T(図1参照)にフック9を引っ掛ける作業が容易となり、且つ、かかる作業を素早く終えることが可能となる。
また、本クレーン1において、ニューラルネットワーク50は、ニューロンとニューロンがシナプスで結合された脳神経回路を模しており、荷物Lの二次元形状情報Iiと荷物Lの重心位置情報Giの組み合わせを学習用データDsとしてシナプスに相当する回路55の重み付けを調整したものである。かかるクレーン1によれば、荷物Lの画像Iに基づいて重心位置Gを推定する機能を獲得できる。
更に、本クレーン1において、荷物Lの二次元形状情報Iiは、仮想荷物Liを仮想平面Siに投影したものであり、荷物Lの重心位置情報Giは、仮想荷物Liにおける重心位置を同じく仮想平面Siに投影したものである。かかるクレーン1によれば、一方向から撮影された荷物Lの画像Iに基づいて重心位置Gを推定する機能を獲得できる。
更に、本クレーン1において、コンピュータ20は、荷物Lの画像Iと荷物Lの二次元形状情報Iiとの位置合せによって荷物Lの位置及び姿勢を把握し、荷物Lの重心位置Gをクレーン1の座標系で表す。かかるクレーン1によれば、重心位置Gの上方にフック9を誘導する際の制御が容易となる。
更に、本クレーン1は、荷物Lの画像Iを映し出すディスプレイ42を具備している。そして、コンピュータ20は、ディスプレイ42に映し出された荷物Lの画像Iに対して重心位置Gを表示する。かかるクレーン1によれば、操縦者が荷物Lの重心位置Gを視認することができる。
更に、本クレーン1は、ブーム7を稼動させるアクチュエータ(旋回用油圧モータ31・伸縮用油圧シリンダ32・起伏用油圧シリンダ33)を具備している。そして、コンピュータ20は、アクチュエータ(31・32・33)を自動的に制御して重心位置Gの上方にフック9を誘導する。かかるクレーン1によれば、操縦者が各種操作具(旋回操作具21・伸縮操作具22・起伏操作具23)を操作せずとも、荷物Lの重心位置Gの上方にフック9を誘導することができる。
最後に、本クレーン1は、コンピュータ20を具備しており、このコンピュータ20が荷物Lの重心位置Gを推定するものとしている。しかし、遠隔地のコンピュータとつながることで、このコンピュータが荷物Lの重心位置Gを推定するとしてもよい。また、本願においては、発明の対象を「荷物の重心位置を推定できるクレーン」としたが、「荷物の重心位置を推定できるクレーン用制御システム」と捉えることもできる。従って、これについても技術的思想が及ぶものである。
1 クレーン
2 走行体
3 旋回体
7 ブーム
8 ワイヤロープ
9 フック
10 ウインチ
12 操縦システム
20 コンピュータ
41 カメラ
42 ディスプレイ
50 ニューラルネットワーク
51 入力層
52 出力層
53 隠れ層
54 ノード
55 回路
Ds 学習用データ
G 荷物の重心位置
Gi 荷物の重心位置情報
I 荷物の画像
Ii 荷物の二次元形状情報
L 荷物
Li 仮想荷物
P 狙点
R 画像領域
Si 仮想平面
T 吊り具
W 重み

Claims (4)

  1. ブームと、
    前記ブームから垂下するワイヤロープと、
    前記ワイヤロープの巻き入れ及び巻き出しによって昇降するフックと、を備えたクレーンにおいて、
    地上に置かれた荷物を撮影するカメラと、
    前記カメラが撮影した荷物の画像に基づいて処理を行うコンピュータと、を具備し、
    前記コンピュータ多階層のニューラルネットワークを用いた人工知能機能を有しており、前記ニューラルネットワークの入力層に荷物の画像を入力すると、前記ニューラルネットワークの出力層から荷物の重心位置を出力するものとされ、
    前記ニューラルネットワークは、ニューロンとニューロンがシナプスで結合された脳神経回路を模しており、仮想荷物を仮想平面に投影した二次元形状情報と前記仮想荷物における重心位置を同じく仮想平面に投影した重心位置情報の組み合わせを学習用データとして前記シナプスに相当する回路の重み付けを調整したものである、ことを特徴とするクレーン。
  2. 前記コンピュータは、荷物の画像と荷物の二次元形状情報との位置合せによって荷物の位置及び姿勢を把握し、荷物の重心位置をクレーンの座標系で表す、ことを特徴とする請求項1に記載のクレーン。
  3. 荷物の画像を映し出すディスプレイを具備し、
    前記コンピュータは、前記ディスプレイに映し出された荷物の画像に対して重心位置を表示する、ことを特徴とする請求項1又は請求項2に記載のクレーン。
  4. 前記ブームを稼動させるアクチュエータを具備し、
    前記コンピュータは、前記アクチュエータを自動的に制御して重心位置の上方に前記フックを誘導する、ことを特徴とする請求項1から請求項のいずれか一項に記載のクレーン。
JP2019053101A 2019-03-20 2019-03-20 クレーン Active JP6737368B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019053101A JP6737368B1 (ja) 2019-03-20 2019-03-20 クレーン

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019053101A JP6737368B1 (ja) 2019-03-20 2019-03-20 クレーン

Publications (2)

Publication Number Publication Date
JP6737368B1 true JP6737368B1 (ja) 2020-08-05
JP2020152530A JP2020152530A (ja) 2020-09-24

Family

ID=71892447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019053101A Active JP6737368B1 (ja) 2019-03-20 2019-03-20 クレーン

Country Status (1)

Country Link
JP (1) JP6737368B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112562018A (zh) * 2020-12-09 2021-03-26 杭州鸿泉物联网技术股份有限公司 一种吊点跟随定位方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6826452B1 (en) * 2002-03-29 2004-11-30 The Penn State Research Foundation Cable array robot for material handling
JP7057959B2 (ja) * 2016-08-09 2022-04-21 住友ゴム工業株式会社 動作解析装置
JP6888287B2 (ja) * 2016-12-09 2021-06-16 株式会社タダノ クレーン
JP7033872B2 (ja) * 2017-09-19 2022-03-11 株式会社Nttファシリティーズ 作業支援装置、及び作業支援方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112562018A (zh) * 2020-12-09 2021-03-26 杭州鸿泉物联网技术股份有限公司 一种吊点跟随定位方法及系统
CN112562018B (zh) * 2020-12-09 2023-08-11 杭州鸿泉物联网技术股份有限公司 一种吊点跟随定位方法及系统

Also Published As

Publication number Publication date
JP2020152530A (ja) 2020-09-24

Similar Documents

Publication Publication Date Title
JP6805781B2 (ja) クレーン
JP3994950B2 (ja) 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置
WO2020153325A1 (ja) クレーン
WO2020250558A1 (ja) 遠隔操作システムおよび遠隔操作サーバ
JP6737368B1 (ja) クレーン
WO2021060473A1 (ja) クレーン情報表示システム
JP6737369B1 (ja) クレーン
JP6744000B1 (ja) クレーン装置
JP6816783B2 (ja) クレーン
JP6816784B2 (ja) クレーン
WO2022070876A1 (ja) 情報取得システム
JP7172199B2 (ja) 遠隔操作端末及び作業車両
JP6977618B2 (ja) 玉掛け具長さを算出するクレーン及び玉掛け具長さを算出する方法
JP7290012B2 (ja) クレーンの操作支援システムおよび操作支援方法
WO2021060466A1 (ja) クレーン情報表示システム
JP7501176B2 (ja) 移動式クレーン
US12030751B2 (en) Crane information display system
JP2019156535A (ja) クレーン及び情報表示方法
JP7420896B1 (ja) 操縦者技量評価装置及び前記操縦者技量評価装置を有するクレーン
WO2024085237A1 (ja) クレーン
JP2023081639A (ja) クレーン、サーバ、及び出力復元システム
WO2022091820A1 (ja) 建設作業計画支援装置
JP2018095362A (ja) クレーン
JP2021098587A (ja) クレーンの性能線表示装置
JPWO2020166455A1 (ja) クレーン及び経路生成システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190822

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190822

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200629

R150 Certificate of patent or registration of utility model

Ref document number: 6737368

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250