JP2020037475A - 建設機械制御システム、建設機械制御方法、及びプログラム - Google Patents

建設機械制御システム、建設機械制御方法、及びプログラム Download PDF

Info

Publication number
JP2020037475A
JP2020037475A JP2018165627A JP2018165627A JP2020037475A JP 2020037475 A JP2020037475 A JP 2020037475A JP 2018165627 A JP2018165627 A JP 2018165627A JP 2018165627 A JP2018165627 A JP 2018165627A JP 2020037475 A JP2020037475 A JP 2020037475A
Authority
JP
Japan
Prior art keywords
construction machine
load
learning device
learning
dimensional model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018165627A
Other languages
English (en)
Other versions
JP7126251B2 (ja
Inventor
忠 成瀬
Tadashi Naruse
忠 成瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maeda Corp
Original Assignee
Maeda Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maeda Corp filed Critical Maeda Corp
Priority to JP2018165627A priority Critical patent/JP7126251B2/ja
Publication of JP2020037475A publication Critical patent/JP2020037475A/ja
Application granted granted Critical
Publication of JP7126251B2 publication Critical patent/JP7126251B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control And Safety Of Cranes (AREA)

Abstract

【課題】画像認識によって建設機械の操作支援をする場合の手間を省く。【解決手段】建設機械制御システム(S)の撮影手段(20)は、建設機械によって運ばれる荷を撮影し、撮影画像を生成する。学習器(L)は、荷の3次元モデルを種々の条件でレンダリングした仮想画像によって3次元モデルの特徴が学習されている。検出手段(103)は、学習器(L)に基づいて、撮影画像から前記荷を検出する。制御手段(104)は、検出手段(103)の検出結果に基づいて、建設機械を制御する。【選択図】図3

Description

本発明は、建設機械制御システム、建設機械制御方法、及びプログラムに関する。
従来、所定の位置に荷を運ぶ建設機械の操作を支援する技術が検討されている。例えば、特許文献1には、建設機械の一例であるクレーンを所定の姿勢にする操作を行う際に、オペレータに対して操作手順を指示する操作支援方法が記載されている。
特許第5398927号公報
上記のような技術では、荷の現在の位置や向きに応じた操作支援をすることが重要である。しかしながら、特許文献1の技術では、オペレータに対して操作手順を指示するだけなので、オペレータは、目視で荷の位置や向きを確認してクレーンを操作しなければならない。この点、運搬中の荷をカメラで撮影し、画像認識を利用して荷の位置や向きを検出することも考えられるが、荷の写り方は、撮影方向や光の当たり具合等によって異なる。このため、画像認識を利用しようとすると、多数の写真を用意する必要があり非常に手間がかかってしまう。
本発明は上記課題に鑑みてなされたものであって、その目的は、画像認識によって建設機械の操作支援をする場合の手間を省くことである。
上記課題を解決するために、本発明の一態様に係る建設機械制御システムは、建設機械によって運ばれる荷を撮影し、撮影画像を生成する撮影手段と、前記荷の3次元モデルを種々の条件でレンダリングした仮想画像によって前記3次元モデルの特徴が学習された学習器と、前記学習器に基づいて、前記撮影画像から前記荷を検出する検出手段と、前記検出手段の検出結果に基づいて、前記建設機械を制御する制御手段と、を含むことを特徴とする。
本発明の一態様に係る建設機械制御方法は、建設機械によって運ばれる荷を撮影し、撮影画像を生成する撮影ステップと、前記荷の3次元モデルを種々の条件でレンダリングした仮想画像によって前記3次元モデルの特徴が学習された学習器に基づいて、前記撮影画像から前記荷を検出する検出ステップと、前記検出ステップの検出結果に基づいて、前記建設機械を制御する制御ステップと、を含むことを特徴とする。
本発明の一態様に係るプログラムは、建設機械によって運ばれる荷を撮影し、撮影画像を生成する撮影手段、前記荷の3次元モデルを種々の条件でレンダリングした仮想画像によって前記3次元モデルの特徴が学習された学習器に基づいて、前記撮影画像から前記荷を検出する検出手段、前記検出手段の検出結果に基づいて、前記建設機械を制御する制御手段、としてコンピュータを機能させる。
また、本発明の一態様では、前記建設機械制御システムは、予め定められた複数のレンダリング条件に基づいて、前記3次元モデルを示す複数の仮想画像を取得し、各仮想画像における前記3次元モデルの特徴を前記学習器に学習させる学習手段、を更に含むことを特徴とする。
また、本発明の一態様では、前記学習器には、前記3次元モデルの角の特徴が学習されており、前記検出手段は、前記学習器に基づいて、前記撮影画像から前記荷の角を検出し、前記制御手段は、前記検出手段により検出された前記荷の角に基づいて、前記建設機械を制御する、ことを特徴とする。
また、本発明の一態様では、前記検出手段は、前記学習器に基づいて、前記撮影画像から検出された前記荷の位置を示す3次元座標を取得し、前記制御手段は、前記検出手段により取得された3次元座標に基づいて、前記建設機械を制御する、を含むことを特徴とする。
また、本発明の一態様では、前記荷の位置を示す3次元座標は、視点座標系における座標であり、前記制御手段は、所定の変換行列に基づいて、前記検出手段により取得された前記視点座標系における3次元座標を、前記建設機械を基準とした座標系の3次元座標に変換し、前記建設機械を制御する、ことを特徴とする。
また、本発明の一態様では、前記検出手段は、前記学習器に基づいて、前記撮影画像から検出した前記荷の位置及び向きの少なくとも一方を取得し、前記制御手段は、前記検出手段により取得された前記荷の位置及び向きの少なくとも一方に基づいて、前記建設機械を制御する、を含むことを特徴とする。
また、本発明の一態様では、前記建設機械は、複数種類の荷の各々を運搬可能であり、前記学習器は、前記荷の種類ごとに用意されており、前記建設機械制御システムは、運搬中の前記荷の種類を取得する種類取得手段を更に含み、前記検出手段は、前記荷の種類ごとに用意された学習器のうち、前記種類取得手段により取得された種類の学習器に基づいて、前記撮影画像から前記荷を検出する、ことを特徴とする。
また、本発明の一態様では、前記建設機械は、複数種類の荷の各々を運搬可能であり、前記学習器には、前記複数種類の各々の荷の特徴が学習されており、前記検出手段は、前記撮影画像から前記複数種類の何れかの荷を検出し、前記制御手段は、前記検出手段により検出された荷の種類に基づいて、前記建設機械を制御する、ことを特徴とする。
本発明によれば、画像認識によって建設機械の操作支援をする場合の手間を省くことができる。
実施形態に係る建設機械制御システムが建設現場で利用される様子を示す図である。 制御装置のハードウェア構成を示す図である。 建設機械制御システムで実現される機能の一例を示す機能ブロック図である。 荷の3次元モデルの一例を示す図である。 仮想画像から学習データを生成する処理を示す図である。 撮影画像の一例を示す図である。 視点座標系の3次元座標がクレーン座標系の2次元座標に変換される様子を示す図である。 学習処理を示すフロー図である。 制御処理を示すフロー図である。
[1.建設機械制御システムの全体構成]
以下、本発明に係る実施形態について、図面を参照しつつ説明する。図1は、実施形態に係る建設機械制御システムが建設現場で利用される様子を示す図である。図1に示すように、建設機械制御システムSは、制御装置10と撮影装置20とを含む。制御装置10は、荷30を運搬するクレーン車40に設置されている。なお、本実施形態では、撮影装置20が地上に設置されている場合を説明するが、撮影装置20は、クレーン車40に設置されていてもよい。
図2は、制御装置10のハードウェア構成を示す図である。制御装置10は、クレーン車40を制御するコンピュータであり、例えば、パーソナルコンピュータ、携帯情報端末(タブレット型コンピュータを含む)、又は携帯電話機(スマートフォンを含む)等である。例えば、制御装置10は、クレーン車40のオペレータによって操作される。図2に示すように、例えば、制御装置10は、制御部11、記憶部12、通信部13、操作部14、及び表示部15を含む。
制御部11は、少なくとも1つのプロセッサを含む。制御部11は、記憶部12に記憶されたプログラムやデータに従って処理を実行する。記憶部12は、主記憶部及び補助記憶部を含む。例えば、主記憶部はRAMなどの揮発性メモリであり、補助記憶部は、ハードディスクやフラッシュメモリなどの不揮発性メモリである。通信部13は、有線通信又は無線通信用の通信インタフェースを含み、例えば、ネットワークを介してデータ通信を行う。操作部14は、入力デバイスであり、例えば、タッチパネルやマウス等のポインティングデバイスやキーボード等である。操作部14は、操作内容を制御部11に伝達する。表示部15は、例えば、液晶表示部又は有機EL表示部等である。
なお、記憶部12に記憶されるものとして説明するプログラム及びデータは、ネットワークを介して制御装置10に供給されるようにしてもよい。また、制御装置10のハードウェア構成は、上記の例に限られず、種々のハードウェアを適用可能である。例えば、制御装置10は、コンピュータ読み取り可能な情報記憶媒体を読み取る読取部(例えば、光ディスクドライブやメモリカードスロット)や外部機器と直接的に接続するための入出力部(例えば、USB端子)を含んでもよい。この場合、情報記憶媒体に記憶されたプログラムやデータが読取部又は入出力部を介して、制御装置10に供給されるようにしてもよい。
撮影装置20は、カメラである。撮影装置20は、CCDイメージセンサ又はCMOSイメージセンサ等の撮像素子を含む。撮影装置20は、クレーン車40によって運ばれる荷30を撮影し、撮影画像を生成する。本実施形態では、撮影装置20は、所定のフレームレートで連続的に撮影するものとして説明するが、特にフレームレートが定められておらず不定期的に撮影してもよい。撮影装置20は、有線又は無線によって制御装置10と接続され、制御装置10に撮影画像を送信する。なお、撮影装置20は、制御装置10に含まれていてもよい。
撮影装置20は、クレーン車40の作業可能範囲の一部又は全部が撮影範囲に含まれるように配置される。撮影装置20の位置と向きは、固定されていてもよいし、荷30に追従するように変化してもよい。また、撮影装置20は、ある一部の範囲だけを撮影するカメラであってもよいし、クレーン車40の周囲の様子を万遍なく撮影する全方位カメラであってもよい。なお、本実施形態では、撮影装置20を1台として説明するが、複数の撮影装置20を用意して、クレーン車40の周囲の様子が万遍なく撮影されてもよい。
荷30は、クレーン車40の吊荷であり、例えば、鉄骨、金属板、又は木材等の建築部材である。本実施形態では、地上に配置された荷30が、クレーン車40によって作業現場50に運ばれる場合を説明するが、建設機械制御システムSは、作業現場50に配置された荷30が、クレーン車40によって地上に下ろされる等の任意の場面に利用されてよい。
クレーン車40は、建設機械の一例である。建設機械は、重機とも呼ばれ、本実施形態では、荷30を運搬する。クレーン車40は、フックにかけられた荷30をワイヤロープで吊り上げる。クレーン車40は、操作レバーやボタンが操縦室に配置され、オペレータの操作によって動作する。本実施形態では、クレーン車40は有線又は無線によって制御装置10と接続され、制御装置10の指示によっても動作可能となっている。
本実施形態の建設機械制御システムSでは、種々の条件で荷30の3次元モデルをレンダリングした仮想画像に基づいて当該3次元モデルの特徴を学習させた学習器が制御装置10に記憶されている。制御装置10は、学習器に基づいて、撮影装置20から取得した撮影画像から荷30を検出し、クレーン車40を自動操縦する。建設機械制御システムSは、荷30の3次元モデルを利用することで、学習器に荷30の特徴を学習させるために実際に荷30を撮影する手間を省くようになっている。以降、本技術の詳細について説明する。
[2.本実施形態で実現される機能]
図3は、建設機械制御システムSで実現される機能の一例を示す機能ブロック図である。図3に示すように、建設機械制御システムSでは、学習部100、データ記憶部101、種類取得部102、検出部103、及び建設機械制御部104が実現される。本実施形態では、これら各機能が制御装置10によって実現される場合を説明するが、後述する変形例のように、各機能は、サーバコンピュータ等の他のコンピュータによって実現されてもよい。
[学習部]
学習部100は、制御部11を主として実現される。学習部100は、予め定められた複数のレンダリング条件に基づいて、荷30の3次元モデルを示す複数の仮想画像を取得し、各仮想画像における3次元モデルの特徴を学習器Lに学習させる。
レンダリング条件とは、3次元モデルを示す仮想画像を生成する際の条件である。本実施形態では、レンダリング条件の一例として、仮想カメラの位置及び向きを説明するが、レンダリング条件は、他の種々の条件を適用可能である。例えば、レンダリング条件は、仮想カメラの画角・ズーム値であってもよい。また例えば、レンダリング条件は、光源の位置・強さ・色であってもよい。また例えば、レンダリング条件は、3次元モデル又は背景の色・模様・明るさであってもよい。また例えば、レンダリング条件は、仮想画像の解像度や縦横比であってもよい。
荷30の3次元モデルは、荷30の表面形状を示すポリゴンによって構成される。3次元モデルは、3D−CADソフトによって予め作成されているものとする。3D−CADデータは、データ記憶部101に記憶されていてもよいし、サーバコンピュータ等の他のコンピュータ又は外部の情報記憶媒体に記憶されていてもよい。3D−CADデータには、ポリゴンを定義する頂点の3次元座標が示されている。
仮想画像は、3次元画像とも呼ばれるものであり、仮想カメラから3次元モデルを見た様子を示す画像である。別の言い方をすれば、仮想画像は、3次元モデルが配置された仮想3次元空間を示す画像である。学習部100は、n個(nは2以上の整数)のレンダリング条件の各々に基づいて、仮想画像を生成する。レンダリング条件の数(nの数値)は、任意であってよく、数十〜数百程度であってもよいし、千以上であってもよい。学習部100は、レンダリング条件の数だけ仮想画像を生成する。例えば、仮想カメラの位置及び向きだけでなく、光源等の他の条件もレンダリング条件に含める場合には、学習部100は、同じ位置及び角度であったとしても、光源等の他の条件を変えつつ仮想画像を生成する。
仮想画像における3次元モデルの特徴とは、仮想画像上での2次元的な形状又は色彩の特徴である。形状の特徴は、仮想画像に示された3次元モデルの輪郭の特徴であってもよいし、特徴点群の配置の特徴であってもよい。色彩の特徴は、仮想画像に示された3次元モデルの色合いであり、3次元モデルが表れた画素の画素値の特徴である。本実施形態では、仮想画像における3次元モデルの特徴として、3次元モデルの角(かど)の位置を示す2次元座標を利用する。2次元座標は、仮想画像における画素の位置を示す。角とは、物体の頂点、出隅、又は入隅である。別の言い方をすれば、角は、物体の表面同士又は輪郭線同士がぶつかる場所である。
図4は、荷30の3次元モデルの一例を示す図であり、図5は、仮想画像から学習データを生成する処理を示す図である。図4及び図5では、簡略化のために、3個のレンダリング条件にそれぞれ対応する仮想カメラVC1〜VC3及び仮想画像VI1〜VI3を示しているが、レンダリング条件は、実際には多数用意されている。以降、仮想カメラVC1〜VC3を特に区別する必要のないときは、単に仮想カメラVCと記載し、仮想画像VI1〜VI3を特に区別する必要のないときは、単に仮想画像VIと記載する。
図4に示すように、3次元モデルMは、角P1〜P24を有する。以降、角P1〜P24を特に区別する必要のないときは、単に角Pと記載する。学習部100は、レンダリング条件ごとに生成した仮想画像VIから、3次元モデルMの角Pを示す2次元座標を抽出する。3次元モデルMの角Pの3次元座標は、予め3D−CADデータに示されているので、学習部100は、レンダリングにおける座標変換処理に基づいて、角Pの2次元座標を取得すればよい。図5に示すように、本実施形態では、画像の左上を原点Osとしたスクリーン座標系の座標軸(Xs軸−Ys軸)が設定され、2次元座標は、スクリーン座標系で示されるものとする。
例えば、図5の仮想画像VI1は、図4の仮想カメラVC1から3次元モデルMを見た様子を示す画像である。仮想画像VI1には、角P1〜P8が示されているので、学習部100は、角P1〜P8の各々の2次元座標を取得する。学習部100は、取得した8個の2次元座標からなる2次元座標群に対し、ラベルID(例えば、「1」)を付与する。ラベルIDは、角Pの2次元座標群を識別する情報である。
また例えば、図5の仮想画像VI2は、図4の仮想カメラVC2から3次元モデルMを見た様子を示す画像である。仮想画像VI2には、角P1〜P13,P17,P18,P21,P22が示されているので、学習部100は、角P1〜P13,P17,P18,P21,P22の各々の2次元座標を取得する。学習部100は、取得した17個の2次元座標からなる2次元座標群に対し、ラベルID(例えば、「2」)を付与する。
また例えば、図5の仮想画像VI3は、図4の仮想カメラVC3から3次元モデルMを見た様子を示す画像である。仮想画像VI3には、角P1〜P4,P9〜P12,P17,P18,P21,P22が示されているので、学習部100は、角P1〜P4,P9〜P12,P17,P18,P21,P22の各々の2次元座標を取得する。学習部100は、取得した12個の2次元座標からなる2次元座標群に対し、ラベルID(例えば、「3」)を付与する。
以降同様にして、学習部100は、仮想画像VIに示された角Pの2次元座標群を取得し、当該2次元座標群に対してラベルIDを付与する。学習部100は、2次元座標群とラベルIDの組み合わせを、学習データDTとして取得する。学習データDTは、教師データとも呼ばれるデータであり、学習器Lに3次元モデルMの特徴を学習させるためのデータである。
学習部100は、学習データDTに基づいて学習器Lを学習させる。学習器Lの学習方法自体は、種々の手法を適用可能であり、教師有り機械学習で用いられる学習方法を利用すればよい。学習部100は、学習データDTに示された角Pの2次元座標群のうち、撮影装置20により撮影された撮影画像の特徴点の2次元座標群と似た2次元座標群のラベルIDを出力するように、学習器Lを学習させる。例えば、学習データDTに示された角Pの2次元座標群と、撮影画像の特徴点の2次元座標群と、の類似度(蓋然性)を計算し、閾値以上の類似度又は最も高い類似度のラベルIDを出力するように、学習器Lが学習される。学習は、学習器Lのアルゴリズムの係数等を調整することによって実行される。
なお、学習部100は、2次元座標群とラベルIDの組み合わせだけを取得してもよいが、本実施形態では、視点座標系における3次元モデルMの位置を示す3次元座標も取得する。視点座標系は、仮想カメラVCを基準とした座標系である。視点座標系の3次元座標は、仮想カメラVCに対する相対的な位置を示す。別の言い方をすれば、視点座標系の3次元座標は、仮想カメラVCから見た場合の位置を示す。
学習部100は、3次元モデルMの表面又は内部の任意の位置の3次元座標を取得すればよく、例えば、3次元モデルMの重心Wの位置を示す3次元座標、3次元モデルMの角Pの位置を示す3次元座標、又は3次元モデルMの角P以外の頂点の3次元座標であってよい。本実施形態では、学習部100が3次元モデルMの重心Wの位置を示す3次元座標を取得する場合を説明する。なお、本実施形態では、重心Wの位置を示す3次元座標は、3D−CADデータに予め示されているものとするが、3次元モデルMの頂点座標等に基づいて算出されるようにしてもよい。学習部100は、ラベルIDに関連付けて、重心Wの3次元座標を後述するデータベースDBに記録する。
なお、本実施形態では、以上の処理を定義したプログラムをデータ記憶部101に記憶しておき、学習部100は、3次元モデルMが入力された場合に、当該プログラムに基づいて、自動的に処理を実行する場合を説明するが、以上説明した処理は、予めプログラミングしておくのではなく、学習器Lの管理者がレンダリング条件を指示する等して実行されてもよい。
[データ記憶部]
データ記憶部101は、記憶部12を主として実現される。データ記憶部101は、クレーン車40を制御するために必要な各種データを記憶する。例えば、データ記憶部101は、学習データDT、学習器L、及びデータベースDBを記憶する。学習データDTは、先述した通りである。
学習器Lは、荷30の3次元モデルMを種々の条件でレンダリングした仮想画像VIによって3次元モデルMの特徴が学習されている。データ記憶部101は、学習器Lが示すアルゴリズムを記憶することになる。ある特定の荷30用の学習器Lだけが用意されていてもよいが、本実施形態では、クレーン車40は、複数種類の荷の各々を運搬可能であり、学習器Lは、荷30の種類ごとに用意されているものとする。即ち、学習器Lは、クレーン車40の運搬対象となる荷30の種類の数だけ用意されており、学習器Lと荷30の種類とは1対1の関係にある。学習部100は、荷30の種類ごとに、当該種類の3次元モデルMに基づいて学習器Lを学習させることになる。
学習器Lは、いわゆる人工知能で用いられる種々のタイプの学習器Lを適用可能であり、例えば、機械学習又は深層学習で利用される学習器Lであってよい。学習器Lは、3次元モデルMの特徴の学習済みモデルということもできる。データ記憶部101には、学習器Lのアルゴリズムが記憶されることになる。本実施形態では、学習器Lは、撮影装置20により撮影された撮影画像が入力されると、撮影画像から特徴点群の2次元座標を抽出し、学習済みの角Pの2次元座標群のうち、撮影画像の2次元座標群と似た2次元座標群のラベルIDを出力する。
なお、学習器Lは、3次元モデルMの特徴が学習されていればよく、学習器Lは、実施形態の例に限られない。例えば、検出部103によって撮影画像の特徴点群が抽出されたうえで、学習器Lに対し、特徴点群の2次元座標群が入力されるようにしてもよい。また例えば、学習器Lは、ラベルIDとともに、学習済みの2次元座標群との類似度(蓋然性)を出力してもよい。また例えば、学習器Lは、ラベルIDとともに、当該ラベルIDが示す角Pの2次元座標群を出力してもよい。また例えば、学習器Lは、ラベルIDを出力せずに、類似度が閾値以上の2次元座標群が存在するか否かを示す情報だけを出力してもよい。
データベースDBは、視点座標系における3次元モデルMの位置を示すデータベースであり、本実施形態では、3次元モデルMの重心Wの位置が示される。例えば、データベースDBには、ラベルIDと、視点座標系における重心Wの位置を示す3次元座標と、が関連付けられて格納される。
なお、本実施形態では、重心Wの位置を示す3次元座標が、学習器Lとは別のデータベースDBに格納されている場合を説明するが、学習部100は、重心Wの位置を示す3次元座標を学習器Lに学習させてもよい。この場合、学習部100は、重心Wの位置を示す3次元座標を出力とする学習データDTを生成し、学習器Lは、撮影画像が入力された場合に、重心Wの位置を示す3次元座標を出力してもよい。
また、データ記憶部101に記憶されるデータは、上記の例に限られない。データ記憶部101は、任意のデータを記憶してよく、例えば、荷30の種類を示すデータベースを記憶してもよい。当該データベースには、荷30の種類を一意に識別する荷ID、学習器Lを一意に識別する学習器ID、荷30の運搬順、及び荷30の運搬方法等が格納されていてもよい。運搬方法は、荷30を運ぶ経路、荷30を運ぶべき目標地点、運搬中の荷30の向き、及び荷30の移動速度等である。
[種類取得部]
種類取得部102は、制御部11を主として実現される。種類取得部102は、運搬中の荷30の種類を取得する。本実施形態では、クレーン車40に荷30が吊るされる際に、操作部14から荷30の種類IDが入力されるものとする。このため、種類取得部102は、操作部14から入力された荷30の種類IDを取得する。なお、荷30の運搬順が予め定められている場合には、データ記憶部101に運搬順を記憶させておき、種類取得部102は、データ記憶部101に記憶された運搬順に基づいて、運搬中の荷30の種類IDを取得してもよい。また、RFID等のタグを荷30に付与する場合には、種類取得部102は、タグを読み取ることによって種類IDを取得してもよい。
[検出部]
検出部103は、制御部11を主として実現される。検出部103は、学習器Lに基づいて、撮影画像から荷30を検出する。本実施形態では、撮影装置20は、所定のフレームレートに基づいて連続的に撮影して撮影画像を生成するので、検出部103は、撮影装置20から当該連続的に撮影された撮影画像を取得する。検出部103は、取得した撮影画像を学習器Lに入力し、学習器Lからの出力を取得することによって、撮影画像から荷30を検出する。
図6は、撮影画像の一例を示す図である。本実施形態では、3次元モデルMの角の特徴が学習器Lに学習されているので、図6に示すように、検出部103は、学習器Lに基づいて、撮影画像PIから荷30の角Pを検出する。例えば、学習器Lは、入力された撮影画像PIの特徴点を抽出し、特徴点群の2次元座標群を取得する。学習器Lは、学習済みの2次元座標群のうち、撮影画像PIから取得した2次元座標群との類似度が閾値以上の2次元座標群のラベルIDを出力する。検出部103は、学習器Lから出力されたラベルIDを取得することによって、撮影画像PIから荷30を検出する。なお、学習器Lは、閾値以上の蓋然性の2次元座標群が存在しない場合には、ラベルIDを出力せず、所定のエラーコードを出力してもよい。
また例えば、検出部103は、学習器Lに基づいて、撮影画像PIから検出された荷30の位置を示す3次元座標を取得してもよい。本実施形態では、データベースDBに荷30の重心Wの位置を示す3次元座標が格納されているので、検出部103は、データベースDBを参照し、学習器Lから出力されたラベルIDに関連付けられた重心Wの3次元座標を取得する。
本実施形態では、荷30の種類ごとに学習器Lが用意されているので、検出部103は、荷30の種類ごとに用意された学習器Lのうち、種類取得部102により取得された種類の学習器Lに基づいて、撮影画像PIから荷30を検出する。検出部103は、種類取得部102により取得された種類の学習器Lに対し、撮影画像PIを入力し、ラベルIDを取得することになる。
[建設機械制御部]
建設機械制御部104は、制御部11を主として実現される。建設機械制御部104は、検出部103の検出結果に基づいて、クレーン車40を制御する。検出部103の検出結果とクレーン車40の制御方法との関係を示すアルゴリズムは、データ記憶部101に予め記憶されているものとする。建設機械制御部104は、検出部103の検出結果に関連付けられた制御方法でクレーン車40を制御する。
本実施形態では、建設機械制御部104がクレーン車40を自動制御する場合を一例として説明するが、建設機械制御部104は、クレーン車40のオペレータの操作を支援すればよく、自動制御ではなく、オペレータの操作を補正することで操作支援をしてもよい。他にも例えば、建設機械制御部104は、検出部103の検出結果に基づいて、オペレータが入力してはならない操作を決定し、当該操作が入力された場合に、オペレータの操作を無効にしたり、クレーン車40を停止させたりしてもよい。
例えば、建設機械制御部104は、検出部103の検出結果に基づいて、荷30を所定の目標位置に運搬するように、クレーン車40を制御する。建設機械制御部104は、検出部103の検出結果に基づいて取得される荷30の位置が目標位置に近づくように、クレーン車40を制御する。本実施形態では、荷30の経路が予め定められている場合を説明するが、特に経路が定められていなくてもよい。建設機械制御部104は、検出部103の検出結果に基づいて取得される荷30の位置が所定の経路上をたどるように、クレーン車40を制御する。
本実施形態では、3次元モデルMの角の特徴が学習器Lに学習されているので、建設機械制御部104は、検出部103により検出された荷30の角Pに基づいて、クレーン車40を制御する。例えば、建設機械制御部104は、検出部103により検出された荷30の角Pに基づいて特定される荷30の位置に基づいて、クレーン車40を制御する。
また、建設機械制御部104は、撮影画像PI上で検出された荷30の位置(2次元的な位置)に基づいてクレーン車40を制御してもよいが、本実施形態では、建設機械制御部104は、検出部103により取得された3次元座標に基づいて、クレーン車40を制御する。建設機械制御部104は、検出部103により取得された3次元座標に基づいて、荷30を所定の目標位置に運搬するように、クレーン車40を制御する。例えば、建設機械制御部104は、検出部103により取得された3次元座標が目標位置を示す3次元座標に近づくように、クレーン車40を制御する。また例えば、建設機械制御部104は、検出部103により取得された3次元座標が3次元空間内の所定の経路上をたどるように、クレーン車40を制御する。
先述したように、本実施形態では、検出部103により取得される荷30の位置を示す3次元座標は、視点座標系における座標なので、建設機械制御部104は、所定の変換行列に基づいて、検出部103により取得された視点座標系における3次元座標を、クレーン車40を基準とした座標系の3次元座標に変換し、クレーン車40を制御する。
クレーン車40を基準とした座標系とは、クレーン車40に設定された基準点を基準とした座標系であり、以降では、クレーン座標系と記載する。基準点は、クレーン車40を制御する際の基準となる位置であればよく、例えば、ジブのフートピンの位置、ジブの基準線上の位置、クレーン車40の旋回軸上の位置、又はオペレータの操縦室内の所定位置といった任意の位置を適用可能である。クレーン座標系の3次元座標は、クレーン車40の基準点に対する相対的な位置を示す。別の言い方をすれば、クレーン座標系の3次元座標は、クレーン車40の基準点から見た場合の位置を示す。
図7は、視点座標系の3次元座標がクレーン座標系の2次元座標に変換される様子を示す図である。図7では、視点座標系の原点をOvの符号で示し、視点座標系の3軸をXv,Yv,Zvの符号で示す。また、クレーン座標系の原点をOcの符号で示し、視点座標系の3軸をXc,Yc,Zcの符号で示す。なお、図7では、図4の仮想カメラVC1に対応する視点座標系を示している。
変換行列は、視点座標系をクレーン座標系に変換するための行列であり、撮影装置20とクレーン車40の基準点との位置関係に基づいて定めておけばよい。別の言い方をすれば、変換行列は、視点座標系の原点Ovの位置及び3軸Xv,Yv,Zvの向きと、クレーン座標系の原点Ocの位置及び3軸Xc,Yc,Zcの向きと、に基づいて定めておけばよい。
変換行列によれば、視点座標系の原点Ovの位置がクレーン座標系の原点Ocの位置に変換され、かつ、視点座標系の3軸Xv,Yv,Zvの向きがクレーン座標系の3軸Xc,Yc,Zcの向きに変換される。別の言い方をすれば、変換行列は、視点座標系の原点Ovの位置をクレーン座標系の原点Ocの位置に平行移動させ、かつ、視点座標系の3軸Xv,Yv,Zvの向きをクレーン座標系の3軸Xc,Yc,Zcの向きに回転させるための行列である。
建設機械制御部104は、変換行列に基づいて、視点座標系における重心Wの位置を示す3次元座標を、クレーン座標系の3次元座標に変換する。建設機械制御部104は、クレーン座標系における重心Wの位置を示す3次元座標に基づいて、荷30を所定の目標位置に運搬するように、クレーン車40を制御する。目標位置は、クレーン座標系の3次元座標で定められているものとする。例えば、建設機械制御部104は、クレーン座標系における重心Wの位置を示す3次元座標が、目標位置を示す3次元座標に近づくように、クレーン車40を制御する。また例えば、建設機械制御部104は、クレーン座標系における重心Wの位置を示す3次元座標が3次元空間内の所定の経路上をたどるように、クレーン車40を制御する。
[3.本実施形態において実行される処理]
次に、建設機械制御システムSで実行される処理を説明する。ここでは、荷30の3次元モデルMの特徴を学習器Lに学習させる学習処理と、学習済みの学習器Lを利用してクレーン車40を制御する制御処理と、について説明する。以降説明する処理は、制御部11が記憶部12に記憶されたプログラムに従って動作することによって実行される。また、以降説明する処理は、図3に示す機能ブロックにより実行される処理の一例である。
[3−1.学習処理]
図8は、学習処理を示すフロー図である。図8に示すように、まず、制御部11は、学習対象となる荷30の3次元モデルMを示す3D−CADデータを取得する(S101)。3D−CADデータは、記憶部12に予め記憶されていてもよいし、記憶部12又はオンライン上の3D−CADソフトを利用して描画されてもよい。他にも例えば、3D−CADデータは、サーバコンピュータ等の他のコンピュータ又は外部の情報記憶媒体から取得されてもよい。
制御部11は、S101で取得した3D−CADデータと、予め定められた複数のレンダリング条件と、に基づいて、複数の仮想画像VIを生成する(S102)。レンダリング条件は、記憶部12に予め記憶されているものとするが、操作部14から入力されるようにしてもよい。制御部11は、レンダリング条件ごとに、当該レンダリング条件に基づいて仮想画像VIを生成する。
制御部11は、S102で生成した仮想画像VIごとに、当該仮想画像VIにおける角Pの位置を示す2次元座標群を取得する(S103)。S103においては、制御部11は、レンダリングの際の座標変換処理によって変換された、角Pの3次元座標に対応する2次元座標を取得する。
制御部11は、S103で取得した2次元座標群の各々にラベルIDを発行する(S104)。S104においては、制御部11は、任意のID発行ルールに基づいて、2次元座標群同士で重複しないようにラベルIDを発行する。
制御部11は、S103で取得した2次元座標群と、当該2次元座標群を識別するラベルIDと、の組み合わせを学習データDTとして取得する(S105)。S105においては、制御部11は、2次元座標群を入力とし、ラベルIDを出力とするデータセットを、学習データDTとして取得する。
制御部11は、S105で取得した学習データDTに基づいて、学習器Lを学習させる(S106)。S106においては、制御部11は、学習データDTが示す2次元座標群が入力された場合に、当該2次元座標群に対応するラベルIDを出力するように、学習器Lのアルゴリズムを学習させる。
制御部11は、S104で発行したラベルIDと、視点座標系における重心Wの位置を示す3次元座標と、を関連付けてデータベースDBに格納する(S107)。S107においては、制御部11は、レンダリング条件が示す仮想カメラVCの位置及び向きに基づいて視点座標系の座標軸を設定し、重心Wの位置を示す3次元座標を取得する。制御部11は、当該レンダリング条件に対応するラベルIDと、取得した3次元座標と、を関連付けてデータベースDBに格納する。
[3−2.制御処理]
図9は、制御処理を示すフロー図である。図9に示すように、まず、制御部11は、操作部14の検出信号に基づいて、荷30の種類を取得する(S201)。S201においては、クレーン車40のオペレータが操作部14から荷30の種類IDを入力し、制御部11は、当該入力された荷30の種類IDを取得する。
制御部11は、撮影装置20から撮影画像PIを取得する(S202)。撮影装置20は、所定のフレームレートに基づいて連続的に撮影し、撮影画像PIを生成して制御装置10に入力する。S202においては、制御部11は、撮影装置20から入力された撮影画像PIを取得する。
制御部11は、S201で取得した種類の学習器Lに対し、S202で取得した撮影画像PIを入力し、撮影画像PIから荷30の角を検出したかを判定する(S203)。S203においては、制御部11は、記憶部12に記憶された学習器Lのうち、S201で取得した種類の荷30の特徴が学習された学習器Lに対し、撮影画像PIを入力する。なお、S203においては、制御部11は、荷30の全ての角を検出する必要はなく、撮影画像P1から検出できた角を利用して荷30を認識し、荷30の位置と方向を特定すればよい。
学習器Lは、入力された撮影画像PIから特徴点群を抽出する。特徴点群の抽出処理自体は、種々のアルゴリズムを適用可能であり、例えば、SIFT、SURF、又はA−KAZEといったアルゴリズムであってもよい。学習器Lは、撮影画像PIから抽出した特徴点群の2次元座標群と、学習済みの角Pの2次元座標群と、の類似度を計算する。例えば、撮影画像PIから抽出した特徴点群の2次元座標群と、学習済みの角Pの2次元座標群と、の距離の総計が短いほど類似度が高くなる。学習器Lは、類似度が閾値以上の2次元座標群のラベルIDを出力する。制御部11は、学習器LからラベルIDが出力された場合には、荷30の角を検出したと判定し、ラベルIDが出力されなかった場合には、荷30の角を検出したと判定しない。
荷30の角を検出したと判定された場合(S203;Y)、制御部11は、データベースDBを参照し、学習器Lが出力したラベルIDに関連付けられた重心Wの3次元座標を取得する(S204)。S204において取得される3次元座標は、視点座標系における3次元座標なので、続くS205の処理によって、クレーン座標系に変換される。
制御部11は、所定の変換行列に基づいて、S204で取得した3次元座標をクレーン座標系の3次元座標に変換する(S205)。変換行列は、予め記憶部12に記憶されているものとする。S205において取得される3次元座標は、クレーン座標系における3次元座標なので、クレーン車40の基準点から見て荷30の重心がある位置を示す座標である。
制御部11は、S205で変換した3次元座標に基づいて、クレーン車40を制御する(S206)。S206においては、制御部11は、予め定められた目標地点に向けて荷30が所定の経路で移動するように、クレーン車40を制御する。目標地点の3次元座標は、記憶部12に予め記憶されているものとする。制御部11は、S205で変換した3次元座標が目標地点の3次元座標に近づくように、クレーン車40を制御する。
制御部11は、所定の終了条件が満たされたかを判定する(S207)。終了条件は、予め定められた条件であればよく、荷30が目標地点まで運ばれることであってもよいし、オペレータが所定の操作を行うことであってもよい。所定の終了条件が満たされたと判定された場合(S207;Y)、本処理は終了する。一方、所定の終了条件が満たされたと判定されない場合(S207;N)、S202の処理に戻る。
建設機械制御システムSによれば、荷30の3次元モデルMを種々の条件でレンダリングした仮想画像VIによって3次元モデルMの特徴が学習された学習器Lを利用することで、荷30の多数の写真を用意する必要がなくなるので、画像認識によってクレーン車40の操作支援をする場合の手間を省くことができる。
また、予め定められた複数のレンダリング条件に基づいて複数の仮想画像VIが取得され、学習器Lの学習が実行されることで、学習処理を自動化し、画像認識によってクレーン車40の操作支援をする場合の手間を効果的に軽減することができる。
また、学習器Lに3次元モデルMの角の特徴を学習させ、撮影画像PIから検出された荷30の角に基づいてクレーン車40を制御し、荷30の特徴が明確に表れる角を利用することで画像認識の精度が高まり、クレーン車40の操作支援の精度を高めることができる。
また、撮影画像PIから検出された荷30の位置を示す3次元座標に基づいてクレーン車40が制御されることで、荷30を所望の位置に運ぶことができ、クレーン車40の操作支援の精度を高めることができる。
また、視点座標系における荷30の位置を示す3次元座標を、クレーン座標系の3次元座標に変換したうえでクレーン車40が制御されることで、荷30の位置を詳細に把握することができ、クレーン車40の操作支援の精度を高めることができる。
また、荷30の種類ごとに学習器Lを用意しておき、運搬中の荷30の種類に応じた学習器Lに基づいて荷30が検出されることで、必要最低限の処理によって荷30を検出することができ、建設機械制御システムSの処理を高速化することができる。
[4.変形例]
なお、本発明は、以上に説明した実施の形態に限定されるものではない。本発明の趣旨を逸脱しない範囲で、適宜変更可能である。
(1)例えば、実施形態では、荷30の位置に基づいてクレーン車40が制御される場合を説明したが、荷30の向きに基づいてクレーン車40が制御されてもよい。
本変形例では、学習部100は、ラベルIDごとに、視点座標系における3次元モデルMの向きを取得して、データベースDBに格納する。視点座標系の向きは、仮想カメラVCに対する相対的な向きを示す。別の言い方をすれば、視点座標系の向きは、仮想カメラVCから見た場合の向きを示す。
なお、3D−CADデータには、3次元モデルMの正面方向が設定されているものとする。正面方向は、任意の方向を設定可能であり、例えば、3次元モデルMの何れかの表面の垂線方向であってもよいし、特に垂線ではない方向であってもよい。ここでは、図4に示す3次元モデルMに対し、角P1,P2,P6,P5によって囲まれる平面の垂線が正面方向として設定されている場合を一例として説明する。例えば、学習部100は、ラベルIDごとに、仮想カメラVCに対する当該垂線の方向を計算し、データベースDBに格納する。
検出部103は、学習器Lに基づいて、撮影画像PIから検出した荷30の位置及び向きの少なくとも一方を取得する。ここでは、検出部103が荷30の位置と向きの両方を取得する場合を説明するが、検出部103は、荷30の位置だけを取得してもよいし、荷30の向きだけを取得してもよい。本変形例では、データベースDBに3次元モデルMの方向が格納されているので、検出部103は、データベースDBを参照し、学習器Lから出力されたラベルIDに関連付けられた方向を取得する。
建設機械制御部104は、検出部103により取得された荷30の位置及び向きの少なくとも一方に基づいて、クレーン車40を制御する。ここでは、建設機械制御部104が荷30の位置と向きの両方に基づいてクレーン車40を制御する場合を説明するが、建設機械制御部104は、荷30の位置だけに基づいてクレーン車40を制御してもよいし、クレーン車40の向きだけに基づいてクレーン車40を制御してもよい。
荷30の位置を利用してクレーン車40を制御する方法は、実施形態で説明した通りなので、ここでは、荷30の向きを利用してクレーン車40を制御する方法について説明する。例えば、建設機械制御部104は、検出部103により取得された向きに基づいて、荷30が所定の向きを向いて運ばれるように、クレーン車40を制御する。例えば、建設機械制御部104は、検出部103により取得された向きと、荷30が向くべき向きと、のずれ(角度)が閾値未満になるように、クレーン車40を制御する。
先述したように、検出部103により取得される荷30の向きは、視点座標系における向きなので、建設機械制御部104は、所定の変換行列に基づいて、検出部103により取得された視点座標系における向きを、クレーン車40を基準とした座標系の向きに変換し、クレーン車40を制御する。変換行列は、実施形態で説明した通りである。
建設機械制御部104は、変換行列に基づいて、視点座標系の向きを、クレーン座標系の向きに変換する。建設機械制御部104は、クレーン座標系の向きに基づいて、荷30が所定の方向を向くように、クレーン車40を制御する。例えば、建設機械制御部104は、クレーン座標系の向きと、荷30が向くべき向きと、のずれが閾値未満になるように、クレーン車40を制御する。
変形例(1)によれば、撮影画像PIから検出された荷30の位置及び向きの少なくとも一方に基づいてクレーン車40が制御されることで、荷30を所望の位置及び向きの少なくとも一方で運ぶことができ、クレーン車40の操作支援の精度を高めることができる。
(2)また例えば、実施形態では、荷30の種類ごとに学習器Lが用意されている場合を説明したが、学習器Lには、複数種類の各々の荷30の特徴が学習されていてもよい。学習部100は、複数種類の各々の荷30の3次元モデルMを種々のレンダリング条件でレンダリングした仮想画像VIに基づいて、3次元モデルMの特徴を学習器Lに学習させる。個々の種類の学習方法は、実施形態で説明した通りである。
本変形例のデータ記憶部101は、ラベルIDと種類IDとを関連付けて記憶する。即ち、学習器LからどのラベルIDが出力された場合に、撮影画像PIからどの種類の荷30が検出されたかが分かるようになっている。なお、学習器Lに種類IDを出力するように学習させてもよい。
本変形例の検出部103は、撮影画像PIから複数種類の何れかの荷30を検出する。例えば、検出部103は、学習器Lから出力されたラベルIDに関連付けられた種類IDを取得する。
建設機械制御部104は、検出部103により検出された荷30の種類に基づいて、クレーン車40を制御する。荷30の種類とクレーン車40の制御方法との関係を示すアルゴリズムは、データ記憶部101に予め記憶されているものとする。建設機械制御部104は、検出部103により検出された荷30の種類に関連付けられた制御方法でクレーン車40を制御する。
変形例(2)によれば、学習器Lが分類した荷30の種類に基づいてクレーン車40が制御されることで、クレーン車40の操作支援の精度を高めることができる。
(3)また例えば、上記変形例を組み合わせてもよい。
また例えば、建設機械の一例としてクレーン車40を説明したが、建設機械は、種々の建設機械を適用可能であり、クレーン車に限られない。例えば、建設機械は、天井クレーンやタワー式クレーンといった他のタイプのクレーンであってもよい。また例えば、建設機械は、荷のつり上げだけを行い、水平移動を伴わない機械であってもよい。
また例えば、実施形態では、制御装置10によって各機能が実現される場合を説明したが、建設機械制御システムSに複数のコンピュータが含まれている場合に、各コンピュータで機能が分担されてもよい。例えば、データ記憶部101がサーバコンピュータによって実現され、制御装置10は、サーバコンピュータの学習器Lを利用してもよい。また、検出部103がサーバコンピュータによって実現され、制御装置10は、サーバコンピュータによる検出結果を取得してもよい。また、建設機械制御部104がサーバコンピュータによって実現され、クレーン車40は、サーバコンピュータからの指示に基づいて動作してもよい。
S 建設機械制御システム、10 制御装置、11 制御部、12 記憶部、13 通信部、14 操作部、15 表示部、20 撮影装置、30 荷、40 クレーン車、50 作業現場、100 学習部、101 データ記憶部、102 種類取得部、103 検出部、104 建設機械制御部、L 学習器、M 3次元モデル、P 角、W 重心、DB データベース、DT 学習データ、PI 撮影画像、VC 仮想カメラ、VI 仮想画像。

Claims (10)

  1. 建設機械によって運ばれる荷を撮影し、撮影画像を生成する撮影手段と、
    前記荷の3次元モデルを種々の条件でレンダリングした仮想画像によって前記3次元モデルの特徴が学習された学習器と、
    前記学習器に基づいて、前記撮影画像から前記荷を検出する検出手段と、
    前記検出手段の検出結果に基づいて、前記建設機械を制御する制御手段と、
    を含むことを特徴とする建設機械制御システム。
  2. 前記建設機械制御システムは、予め定められた複数のレンダリング条件に基づいて、前記3次元モデルを示す複数の仮想画像を取得し、各仮想画像における前記3次元モデルの特徴を前記学習器に学習させる学習手段、
    を更に含むことを特徴とする請求項1に記載の建設機械制御システム。
  3. 前記学習器には、前記3次元モデルの角の特徴が学習されており、
    前記検出手段は、前記学習器に基づいて、前記撮影画像から前記荷の角を検出し、
    前記制御手段は、前記検出手段により検出された前記荷の角に基づいて、前記建設機械を制御する、
    ことを特徴とする請求項1又は2に記載の建設機械制御システム。
  4. 前記検出手段は、前記学習器に基づいて、前記撮影画像から検出された前記荷の位置を示す3次元座標を取得し、
    前記制御手段は、前記検出手段により取得された3次元座標に基づいて、前記建設機械を制御する、
    を含むことを特徴とする請求項1〜3の何れかに記載の建設機械制御システム。
  5. 前記荷の位置を示す3次元座標は、視点座標系における座標であり、
    前記制御手段は、所定の変換行列に基づいて、前記検出手段により取得された前記視点座標系における3次元座標を、前記建設機械を基準とした座標系の3次元座標に変換し、前記建設機械を制御する、
    ことを特徴とする請求項4に記載の建設機械制御システム。
  6. 前記検出手段は、前記学習器に基づいて、前記撮影画像から検出した前記荷の位置及び向きの少なくとも一方を取得し、
    前記制御手段は、前記検出手段により取得された前記荷の位置及び向きの少なくとも一方に基づいて、前記建設機械を制御する、
    を含むことを特徴とする請求項1〜5の何れかに記載の建設機械制御システム。
  7. 前記建設機械は、複数種類の荷の各々を運搬可能であり、
    前記学習器は、前記荷の種類ごとに用意されており、
    前記建設機械制御システムは、運搬中の前記荷の種類を取得する種類取得手段を更に含み、
    前記検出手段は、前記荷の種類ごとに用意された学習器のうち、前記種類取得手段により取得された種類の学習器に基づいて、前記撮影画像から前記荷を検出する、
    ことを特徴とする請求項1〜6の何れかに記載の建設機械制御システム。
  8. 前記建設機械は、複数種類の荷の各々を運搬可能であり、
    前記学習器には、前記複数種類の各々の荷の特徴が学習されており、
    前記検出手段は、前記撮影画像から前記複数種類の何れかの荷を検出し、
    前記制御手段は、前記検出手段により検出された荷の種類に基づいて、前記建設機械を制御する、
    ことを特徴とする請求項1〜6の何れかに記載の建設機械制御システム。
  9. 建設機械によって運ばれる荷を撮影し、撮影画像を生成する撮影ステップと、
    前記荷の3次元モデルを種々の条件でレンダリングした仮想画像によって前記3次元モデルの特徴が学習された学習器に基づいて、前記撮影画像から前記荷を検出する検出ステップと、
    前記検出ステップの検出結果に基づいて、前記建設機械を制御する制御ステップと、
    を含むことを特徴とする建設機械制御方法。
  10. 建設機械によって運ばれる荷を撮影し、撮影画像を生成する撮影手段、
    前記荷の3次元モデルを種々の条件でレンダリングした仮想画像によって前記3次元モデルの特徴が学習された学習器に基づいて、前記撮影画像から前記荷を検出する検出手段、
    前記検出手段の検出結果に基づいて、前記建設機械を制御する制御手段、
    としてコンピュータを機能させるためのプログラム。
JP2018165627A 2018-09-05 2018-09-05 建設機械制御システム、建設機械制御方法、及びプログラム Active JP7126251B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018165627A JP7126251B2 (ja) 2018-09-05 2018-09-05 建設機械制御システム、建設機械制御方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018165627A JP7126251B2 (ja) 2018-09-05 2018-09-05 建設機械制御システム、建設機械制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020037475A true JP2020037475A (ja) 2020-03-12
JP7126251B2 JP7126251B2 (ja) 2022-08-26

Family

ID=69737503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018165627A Active JP7126251B2 (ja) 2018-09-05 2018-09-05 建設機械制御システム、建設機械制御方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7126251B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020152531A (ja) * 2019-03-20 2020-09-24 株式会社タダノ クレーン
CN111932625A (zh) * 2020-09-01 2020-11-13 合肥泰禾光电科技股份有限公司 一种基于PointNet模型的袋装货物垛拆垛方法
CN113034668A (zh) * 2021-03-01 2021-06-25 中科数据(青岛)科技信息有限公司 一种ar辅助的机械模拟操作方法和系统
CN113734981A (zh) * 2021-07-20 2021-12-03 杭州大杰智能传动科技有限公司 智能塔吊物料运输路径设置方法和装置
JP7505292B2 (ja) 2020-06-23 2024-06-25 株式会社タダノ 移動式クレーン

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007015814A (ja) * 2005-07-07 2007-01-25 Mitsubishi Electric Corp 機器搬入出システム
JP2012532382A (ja) * 2009-07-01 2012-12-13 本田技研工業株式会社 3次元モデルを使用した物体認識
JP2017054450A (ja) * 2015-09-11 2017-03-16 キヤノン株式会社 認識装置、認識方法及び認識用プログラム
JP2018095361A (ja) * 2016-12-09 2018-06-21 株式会社タダノ クレーン

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007015814A (ja) * 2005-07-07 2007-01-25 Mitsubishi Electric Corp 機器搬入出システム
JP2012532382A (ja) * 2009-07-01 2012-12-13 本田技研工業株式会社 3次元モデルを使用した物体認識
JP2017054450A (ja) * 2015-09-11 2017-03-16 キヤノン株式会社 認識装置、認識方法及び認識用プログラム
JP2018095361A (ja) * 2016-12-09 2018-06-21 株式会社タダノ クレーン

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020152531A (ja) * 2019-03-20 2020-09-24 株式会社タダノ クレーン
JP7505292B2 (ja) 2020-06-23 2024-06-25 株式会社タダノ 移動式クレーン
CN111932625A (zh) * 2020-09-01 2020-11-13 合肥泰禾光电科技股份有限公司 一种基于PointNet模型的袋装货物垛拆垛方法
CN113034668A (zh) * 2021-03-01 2021-06-25 中科数据(青岛)科技信息有限公司 一种ar辅助的机械模拟操作方法和系统
CN113034668B (zh) * 2021-03-01 2023-04-07 中科数据(青岛)科技信息有限公司 一种ar辅助的机械模拟操作方法和系统
CN113734981A (zh) * 2021-07-20 2021-12-03 杭州大杰智能传动科技有限公司 智能塔吊物料运输路径设置方法和装置
CN113734981B (zh) * 2021-07-20 2023-06-02 杭州大杰智能传动科技有限公司 智能塔吊物料运输路径设置方法和装置

Also Published As

Publication number Publication date
JP7126251B2 (ja) 2022-08-26

Similar Documents

Publication Publication Date Title
JP7126251B2 (ja) 建設機械制御システム、建設機械制御方法、及びプログラム
CN109978755B (zh) 全景图像合成方法、装置、设备与存储介质
JP6946831B2 (ja) 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法
JP4868186B2 (ja) マーカ生成及びマーカ検出のシステム、方法とプログラム
JP5783885B2 (ja) 情報提示装置、その方法及びそのプログラム
CN108304075B (zh) 一种在增强现实设备进行人机交互的方法与设备
JP6487493B2 (ja) 画像処理システム
JP2019036167A (ja) 画像処理装置、画像処理方法
JP2017194787A (ja) 画像処理装置および領域追跡プログラム
CN112348958A (zh) 关键帧图像的采集方法、装置、系统和三维重建方法
JP7129843B2 (ja) 画像処理装置、画像処理装置の制御方法、システム、及び、プログラム
CN112052847B (zh) 图像处理方法、装置、电子设备和计算机可读存储介质
WO2021168804A1 (zh) 图像处理方法、图像处理装置和图像处理系统
CN114173105B (zh) 信息生成方法、信息生成系统以及记录介质
US20210374977A1 (en) Method for indoor localization and electronic device
KR102344227B1 (ko) 동체 검출 장치, 동체 검출 방법, 동체 검출 프로그램
CN113362441A (zh) 三维重建方法、装置、计算机设备和存储介质
JP2024529949A (ja) デジタル画像の関心領域(rois)に基づいて1または複数の機械視覚ジョブを自動的に生成すること
CN107543507A (zh) 屏幕轮廓的确定方法及装置
US11989928B2 (en) Image processing system
US10002291B2 (en) Method and system of identifying fillable fields of an electronic form
WO2018180214A1 (ja) 画像処理装置、カメラ装置、および画像処理方法
JP2018092507A (ja) 画像処理装置、画像処理方法及びプログラム
JP7494573B2 (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
KR102243505B1 (ko) 강재 정보 처리 장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R150 Certificate of patent or registration of utility model

Ref document number: 7126251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150