以下、本発明に係る実施形態について図面を参照して説明する。ただし、以下の実施形態に記載されている構成要素は例示であり、本発明の技術的範囲をそれらのみに限定する趣旨のものではない。
[実施形態1について]
図1〜図9を参照して、本発明に係る実施形態1について説明する。本実施形態に係る作業機としては、移動式クレーン、高所作業車等が挙げられる。移動式クレーンとしては、例えば、ラフテレーンクレーン、オールテレーンクレーン、トラッククレーン、及び積載形トラッククレーンが挙げられる。以下、本実施形態に係る作業機としてラフテレーンクレーンを例に説明するが、本発明に係る遠隔操作端末は、他の作業機にも適用可能である。
また、本実施形態に係る遠隔操作端末としては、ラジコン送信機タイプのものを例に説明するが、スマートフォンなどの携帯端末、タブレット端末などの無線操作端末のほか、有線操作端末、パソコンなどのコンピュータにも適用できる。
さらに、本実施形態に係る遠隔操作端末としては、携帯型のものに限定されず、設置型であってもよい。例えば、作業機がある部屋とは別の部屋、例えば制御室(オペレーションルーム)に設置された遠隔操作端末であってもよい。
[クレーンの構成]
本実施形態に係るラフテレーンクレーン1(以後、クレーン1と称する)は、図1に示すように、車体10、複数のアウトリガ11、旋回台12、及びブーム14、を備える。車体10は、走行機能を有する車両の本体部分となる。アウトリガ11はそれぞれ、車体10の四隅に設けられる。旋回台12は、車体10に水平旋回可能に取り付けられる。ブーム14は、旋回台12に立設されたブラケット13に取り付けられる。
アウトリガ11は、スライドシリンダの伸縮にともない、車体10の幅方向にスライドして格納状態と張出状態とを状態遷移する。また、アウトリガ11は、ジャッキシリンダの伸縮にともない、車体10の上下方向に伸長してジャッキ格納状態とジャッキ張出状態とを状態遷移する。なお、以下の説明において、特に断ることなく幅方向、前後方向、及び上下方向といった場合には、車体10における各方向を意味する。
旋回台12は、旋回用モータの動力が伝達されるピニオンギヤを有する。このような旋回台12は、このピニオンギヤと車体10に設けられた円形状のギヤとが噛み合うことで旋回軸を中心に回動する。また、旋回台12は、前方右側に配置された操縦席18、後方中央に配置されたブラケット13、及び後方下部に配置されたカウンタウェイト19、を有する。
ブーム14は、入れ子状に組み合わされた基端ブーム141、中間ブーム142、及び先端ブーム143を有する。このようなブーム14は、内部に配置された伸縮シリンダにより伸縮する。また、先端ブーム143の最先端に設けられたブームヘッド144には、シーブ(図1では外装部分のみ示す)が回転自在に設けられる。このようなシーブには、ワイヤロープ16(以後、ワイヤ16と呼ぶ)が掛け回される。ワイヤ16の先端には、フックブロック17(以後、フック17と呼ぶ)が固定される。
ワイヤ16の基端は、ウインチ(不図示)に固定される。ワイヤ16及びフック17は、ウインチの回転により巻上げ又は巻下げられる。
最も外側の基端ブーム141は、基端部がブラケット13に水平に設置された支持軸に回動自在に取り付けられる。このような基端ブーム141は、この支持軸を回転中心として上下に起伏する。さらに、ブラケット13と基端ブーム141の下面との間には、起伏シリンダ15が架け渡される。起伏シリンダ15は、自身の伸縮によりブーム14全体を起伏させる。
また、クレーン1では、基端ブーム141の側面に、ジブ30及びテンションロッド20が、横抱姿勢にて格納される。ジブ30及びテンションロッド20は、複数のピン(不図示)とサイドアップシリンダ31とを用いて、装着/格納される。
さらに、クレーン1のブームヘッド144には、1乃至複数のカメラ、レーダー等の検知装置145が設けられる。検知装置145は、作業機であるクレーン1の周囲の状況に関する情報を取得する。また、検知装置145は、検知した情報に基づいて周囲画像(例えば、カメラによる撮影画像や、レーダーによる周辺検知に基づくレーダー画像)を生成する。
検知装置145により生成された周囲画像は、クレーン1の制御装置70(図4参照)により通信部75を介して遠隔操作端末40に送り出される。遠隔操作端末40は、受け取った周囲画像を表示部44(図2参照)に表示する。なお、周囲画像は、所定の時間間隔でクレーン1から遠隔操作端末40に送り出されてもよい。この場合には、表示部44に表示された周囲画像は、所定の時間間隔で更新される。
検知装置145としてカメラを使用する場合、検知装置145は、複数台(例えば3台)のカメラにより構成されると好ましい。3台のカメラはそれぞれ、鉛直方向上方、鉛直方向と垂直な第1の水平方向、及び第1の水平方向と垂直な第2の水平方向の3方向から、クレーン1の周囲を撮影すると好ましい。
表示部44には、3方向から撮影された画像が個別に表示されてもよい。あるいは、表示部44には、2個以上のカメラにより、3方向から撮影された画像に基づいて生成された3次元画像が、表示されてもよい。また、検知装置145としてレーダーを使用する場合、検知装置145は、例えば、レーダーによる周辺検知に基づく仮想三次元画像を生成する。この場合、検知装置145により生成された仮想三次元画像が、周囲画像であり、遠隔操作端末40の表示部44に表示される。
なお、図1には、カメラにより構成された検知装置145が示される。図1において、検知装置145は、フック17の鉛直方向上方の位置(例えば、シーブの位置)に取り付けられる。ただし、検知装置の構成は、図1に示される構成に限定されない。
[遠隔操作端末の構成]
次に、図2、図7、および図8を参照して本実施形態に係る遠隔操作端末40の概略構成例について説明する。本実施形態に係る遠隔操作端末40は、作業機の一例であるクレーン1を遠隔操作するための遠隔操作端末であって、表示部44と、クレーン1の周囲の状況に関する周囲画像に、クレーン1の一部(具体的には、フック17)または移動対象物(具体的には、荷物P)を示す仮想オブジェクト80を合成して、表示部44に表示させる表示処理部(具体的には、制御部46)と、クレーン1を遠隔操作するとともに、表示部44において仮想オブジェクト80を模擬操作するための操作部42と、模擬操作において操作部42から入力された操作情報をクレーン1に送り出す制御部46と、を備える。
[外観構成]
本実施形態に係る遠隔操作端末40は、操作面41を有する。操作面41には、操作部42、表示部44、及び停止操作部45が設けられる。また、遠隔操作端末40は、クレーン1と通信接続するための通信部43を有する。
操作部42は、クレーン1の具体的な動作を遠隔操作するインタフェースである。また、操作部42は、表示部44に表示された後述する仮想オブジェクト80(図8参照)を、表示部44上で移動させる(換言すれば、模擬操作する)ためのインタフェースでもある。操作部42から入力された操作情報を含む制御情報は、遠隔操作端末40からクレーン1へと送り出される。クレーン1は、遠隔操作端末40から受け取った制御情報に基づいて、動作する。本実施形態の場合、遠隔操作端末40は、後述する模擬操作だけでなく、操作部42または他のインタフェースを用いて、クレーン1を実際に(直接的に)操作することもできる。なお、遠隔操作端末40は、後述する模擬操作に基づくクレーン1の遠隔操作のみができる構成でもよい。
具体的には、操作部42は、操作スティック42a、操作ボタン42bを有する。なお、操作部42は、図示の場合に限定されず、他のインタフェースを有してもよい。
また、1つの遠隔操作端末40に設けられる操作部42の数は、1つ(例えば、操作スティック42aのみ)であってもよいし、2つ以上であってもよい。
操作スティック42aは、図2に示す例では操作面41の例えば左側に配置される。ユーザは、操作スティック42aを所定方向に倒すことで、例えば、フック17などの遠隔操作により動かす部材(以下、「移動対象」という。)を、上記所定方向に対応した方向に、操作量に応じた速度で駆動できる。すなわち、操作スティック42aを大きく倒すほどフック17の移動速度が速くなり、操作スティック42aを起こすほどフック17の移動速度が遅くなる。
ユーザは、上述のような操作スティック42aを所定方向に倒すことで、表示部44に表示された仮想オブジェクト80を、当該所定方向に対応した方向に、操作量に応じた速度で移動できる。すなわち、操作スティック42aを大きく倒すほど仮想オブジェクト80の移動速度が速くなり、操作スティック42aを起こすほど仮想オブジェクト80の移動速度が遅くなる。
操作ボタン42bは、図2に示す例では操作面41の例えば右側に配置される。操作ボタン42bとしては、例えば、フック17および仮想オブジェクト80を上昇させる上昇ボタン42bup、フック17および仮想オブジェクト80を下降させる下降ボタン42bdownが挙げられる。
操作面41の例えば中心部には、表示部44が配置される。表示部44には、検知装置145の検知情報に基づき生成された周囲画像が表示される。遠隔操作端末40に設けられる表示部44の数は、1つであってもよいし、複数であってもよい。例えば、表示部44は、3つの表示部が並べて配置される構成でもよい。
例えば、検知装置145としてカメラを使用して、上述の3方向からの撮影画像を表示部44に表示する場合、3つの表示部のそれぞれに、異なる方向から撮影された画像が表示されてもよい。また、表示部44が3つの表示部要素に分割されている場合には、3つの表示部要素のそれぞれに、異なる方向から撮影された画像が表示されてもよい。また、カメラが複数(例えば、2個以上)ある場合には、各カメラの画像は、表示部44に個別に表示されもよい。あるいは、表示部44に表示される画像は、複数(例えば、2個以上)のカメラ映像から生成された新たな1つの3次元画像でもよい。
また、検知装置145としてレーダーを使用する場合、仮想三次元画像が、表示部44に表示される構成であってもよい。あるいは、仮想三次元空間を予め定めた視点位置から視認した二次元画像に変換した画像が、表示部44に表示される構成であってもよい。
表示部44は、例えば液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、および無機ELディスプレイの少なくとも一つのディスプレイを含む。また、表示部44は、タッチセンサ(非図示)を具備してもよい。
表示部44は、操作部42等の他のインタフェースと一体になっている必要はない。表示部44は、例えば頭部装着型のヘッドマウントディスプレイ(Head-Mounted Display, HMD)であってもよい。HMDは、装着者の左及び/又は右の眼に対応した光学ユニットを有し、少なくとも視覚(他にも例えば聴覚も制御する構成を有していてもよい)を制御できる。
装着者は、HMDを通じて提示される操作画像(映像)を視認できる。よって、装着者は、入力操作面を確認することなく、HMDによる操作画像を見ながら直感的に操作できる。なお、装着者に提示される操作画像は、検知装置145の検知情報に基づいて生成された仮想現実画像(映像)であってもよい。
また、HMDは、装着者の左右の眼に異なる映像を映し出すことも可能である。HMDは、左右の眼に視差のある画像を表示することにより、装着者に3D画像を提示できる。以上のように、表示部がHMDの場合にも、HMDには、上述の表示部44の場合と同様に、クレーン1から受け取った周囲画像および仮想オブジェクトが表示される。
また、本実施形態に係る遠隔操作端末40は、後述する仮想オブジェクトが障害物等に衝突した際に、クレーン1のアクチュエータ50の動作を停止させるための、停止操作部45を有すると好ましい。図2には、停止操作部45の操作インタフェースとして、ボタンタイプのものを操作スティック42aの上方に配置した例が示される。ただし、停止操作部45の操作インタフェースは、スイッチタイプなどの他のインタフェースであってもよい。また、操作停止部45の操作インタフェースは、図2と別の位置に設けられてもよい。
[ハードウェア構成]
次に、図3を参照して、本実施形態に係る遠隔操作端末40のハードウェア構成を説明する。遠隔操作端末40の制御部46は、例えば、CPU(Central Processing Unit)81、ROM(Read Only Memory)82、及びRAM(Random Access Memory)83を備える。各々の構成要素は、互いにバス84を介して接続される。
CPU81は、必要に応じてRAM83等に適宜アクセスして各種演算処理を行いながら遠隔操作端末40を統括的に制御する。ROM82は、CPU81に実行させるOS(Operating System)、プログラム、及び各種パラメータなどのファームウェアが記憶されている不揮発性のメモリである。RAM83は、CPU81の作業用領域等として用いられ、OS、実行中のアプリケーション、及び処理中のデータ等を一時的に保持する。
また、遠隔操作端末40は、入出力インタフェースとして、通信部43、表示部44、操作部42、及び停止操作部45(図2参照)を有する。
通信部43は、クレーン1と通信接続するためのモジュールである。
表示部44は、表示デバイスである。表示部44についてはすでに説明しているので、ここでは詳細な説明は省略する。
操作部42は、操作スティックや操作ボタン等の入力装置である。ユーザは、操作部42を用いて、クレーン1の具体的な動作を遠隔操作する。具体的には、操作部42は、操作インタフェース85、操作センサ86、及び操作入力処理部87、を有する。
操作インタフェース85は、フック17の移動操作を入力するためのものである。操作センサ86は、操作インタフェース85から入力された操作情報(例えば、操作スティック42aの操作量に関する情報、操作方向に関する情報など)を検出する。
操作センサ86は、検出した操作情報を、操作入力処理部87に送り出す。操作入力処理部87は、例えば、操作センサ86から受け取った操作情報に基づいて操作指令信号を算出する。そして、操作入力処理部87は、算出した操作指令信号を制御部46へと送り出す。
制御部46は、受け取った操作指令信号を含む制御情報を生成し、制御情報をクレーン1へと送り出す。クレーン1の制御装置70は、受け取った制御信号に基づいてアクチュエータ50を駆動し、移動対象(例えば、フック17)を移動させる。
停止操作部45は、操作ボタン等の入力装置であり、クレーン1の動作を停止させるインタフェースである。
[制御系の構成]
つぎに、クレーン1および遠隔操作端末40の制御系について説明する。
[クレーンの制御系]
まず、図4を用いて、本実施形態に係るクレーン1の制御系について説明する。
本実施形態に係るクレーン1は、少なくともアクチュエータ50、制御装置70、通信部75、及び検知装置145を有する。
アクチュエータ50は、作業装置に該当するものであって、1乃至複数のシリンダやモータを有する。また、アクチュエータ50は、制御装置70からの制御情報を受信可能に構成される。
制御装置70は、少なくともバス、演算装置、及び記憶装置などを有する。制御装置70は、通信部75との間で制御情報を送受信可能に構成され、検知装置145との間で検知情報を受信可能に構成される。
また、制御装置70は、アクチュエータ50に制御情報を送信可能に構成される。なお、図4では、コントロールバルブ60がアクチュエータ50に制御情報を送信可能な構成を示している。この場合、コントロールバルブ60及び制御装置70が、制御装置に該当すると言える。
通信部75は、遠隔操作端末40との間で制御情報及び/又は画像を送受信可能に構成される。また、通信部75は、制御装置70との間で制御情報及び/又は画像を送受信可能に構成される。すなわち、遠隔操作端末40とクレーン1(具体的には、制御装置70)とは、制御情報及び/又は画像を送受信可能である。
検知装置145は、検知情報を制御装置70に送信可能に構成される。また、検知装置145は、検知情報に基づき画像を生成する画像生成部(非図示)を有してもよい。この場合、検知装置145は、画像生成部で生成された画像(例えば、周囲画像)を制御装置70に送信する。
また、クレーン1は、通常、操作部71を有する。クレーン1は、操作部71の操作情報に基づき動作する。この場合、操作部71は、操作に基づく操作情報を制御装置70へと送信する。なお、操作部71としては、例えば、旋回レバー71a、起伏レバー71b、伸縮レバー71c、及びメインウインチレバー71dが挙げられる。
[遠隔操作端末の制御系]
次に、図5を参照して、本実施形態に係る遠隔操作端末40の制御系について説明する。
本実施形態に係る遠隔操作端末40は、制御部46、通信部43、表示部44、操作部42、及び停止操作部45を有する。
制御部46は、遠隔操作端末40を構成する各部との間で、情報の送受信を適宜行う。具体的には、制御部46は、操作部42や停止操作部45からの操作情報を受信可能に構成される。また、制御部46は、通信部43との間で制御情報及び/又は画像を送受信可能に構成される。さらに、制御部46は、表示部44との間で画像を送受信可能に構成される。
制御部46は、クレーン1から受け取った周囲画像を、表示部44に表示させる。また、制御部46は、表示部44に表示された周囲画像に対して、所定の仮想オブジェクトの画像(以下、単に「仮想オブジェクト」という。)を重畳して(合成して)表示させる。仮想オブジェクトは、クレーン1の一部または移動対象を示す画像である。このような制御部46は、表示処理部でもある。
また、表示部44が複数の表示部要素に分割されている場合には、制御部46は、表示部要素毎に、異なる視点の周囲画像(例えば、上述した3方向からの撮影画像)を表示する。この場合には、制御部46は、表示部要素毎に、仮想オブジェクトを表示する。
制御部46は、操作部42が操作された場合に、操作部42から入力された操作情報に基づいてクレーン1が動作したと仮定した場合の移動対象の位置(以下、「移動対象の推定位置」という。)を算出する。この際、移動対象は、実際には移動していない。制御部46は、表示部44に表示された周囲画像において、移動対象の推定位置に対応する位置(以下、「移動後の位置」という。)に、仮想オブジェクトを表示する。表示部44が複数の表示部要素に分割されている場合には、制御部46は、各表示部要素における移動後の位置に、仮想オブジェクトを表示する。
通信部43は、クレーン1の通信部75との間で制御情報及び/又は画像を送受信可能に構成される。また、通信部43は、制御部46との間で制御情報及び/又は画像を送受信可能に構成される。
表示部44は、制御部46との間で画像を送受信可能に構成される。表示部44についてはすでに説明しているので、ここでは詳細な説明は省略する。
操作部42及び停止操作部45はそれぞれ、制御部46に操作情報を送信可能に構成される。操作部42及び停止操作部45についてはすでに説明しているので、ここでは詳細な説明は省略する。
[画像表示方法について]
本実施形態に係る遠隔操作端末40の画像表示方法について、図6〜図8を参照して説明する。なお、図7及び図8においては、説明のために一部の構成要素は、簡略化して示される。
図6の上図において、縦軸は、操作部42の操作入力があったか否かを(ON:操作入力アリ;OFF:操作入力ナシ)示す。また、横軸は時間(t)を示す。
図6の中図において、縦軸は、操作入力に基づき、フック17が実際に移動しているか否かを(ON:移動している:OFF:移動していない)示す。また、横軸は時間(t)を示す。
図6の下図において、縦軸は、フック17の実際の移動に対応して、表示部44に表示されている画像内でフック17が移動しているか否かを(ON:移動している;OFF:移動していない)示す。また、横軸は時間(t)を示す。
一般的に、遠隔地から遠隔操作する場合、通信に時間を要する。このため、遠隔操作端末40の操作部42から入力された操作情報を含む制御情報が、クレーン1に送信されてからフック17が実際に移動するまでには時間がかかる(つまり、遅延する)。
図6に示す例では、この遅延の時間を、5秒と仮定する(下りの遅延:5秒)。また同様に、検知装置145の検知情報に基づくクレーン1の周囲画像が、遠隔操作端末40に送信されてから表示部44に表示されるまでには時間がかかる(つまり、遅延する)。図6に示す例では、この遅延の時間を、6秒と仮定する(上りの遅延:6秒)。
上述したような2種類の遅延が存在するため、図6に示すように、0秒〜30秒まで操作部42で操作入力すると、下りの遅延により5秒遅延するため、クレーン1のフック17は5秒〜35秒まで移動する。そして、このクレーン1のフック17の移動は、上りの遅延により6秒遅延するため、ユーザは、表示部44において11秒〜41秒でフック17の移動を確認できる。
すなわち、遠隔地で遠隔操作端末40を操作するユーザは、0秒〜11秒の間、実際のフック17の移動を表示部44上で確認できないため、フック17の移動を予想しながらフックを移動させる必要がある。また、実際には、30秒で操作を終了させる場合においても、表示部44上でのフック17は移動途中(フック17は、19秒移動した位置にある)であるため、ユーザは、フック17の移動を予想しながら操作を終了する必要がある。
そこで、本実施形態に係る遠隔操作端末40は、表示部44に表示される周囲画像に対して、移動対象に対応する仮想オブジェクトを重畳して表示する。ユーザが、操作部42を操作する以前の状態で、仮想オブジェクトは、表示部44に表示された周囲画像における移動対象の画像の位置(以下、「移動前の位置」という。)に重畳して表示される。
そして、ユーザが遠隔操作端末40の操作部42を操作すると、操作部42から入力された操作情報に応じて、表示部44に表示された周囲画像に対して仮想オブジェクトが移動する。この際、仮想オブジェクトは、操作情報に基づいてクレーン1が動作したと仮定した場合の移動対象の移動と同じ条件で、表示部44内を移動する。つまり、ユーザは、周囲画像に対して仮想オブジェクトを移動させることにより、移動対象の実際の移動を模擬操作(シミュレーション)することができる。
以下、移動対象が、クレーン1のフック17の場合について説明する。ユーザが操作部42を操作する以前の状態で、仮想オブジェクトは、表示部44に表示された周囲画像におけるフック17の位置に重畳して表示される。この状態から、ユーザが、操作部42を操作すると、制御部46は、操作情報に基づいて移動対象の推定位置を算出する。
このような演算は、遠隔操作端末40の制御部46で行われるため、上述した2種類の遅延は、演算結果に影響しない。そして、制御部46は、表示部44に表示された周囲画像において、移動対象の推定位置に対応する位置(つまり、上述した移動後の位置)に、仮想オブジェクトを表示する。つまり、仮想オブジェクトは、表示部44内において、移動前の位置から移動後の位置に移動する。
具体的には、操作部42の操作入力処理部87は、操作部42の操作情報(例えば、操作スティック42aの操作方向に関する情報および操作量に関する情報)を制御部46へと送り出す。そして、制御部46は、操作情報に基づく、上記2種類の遅延がない場合のフック17の位置(つまり、上述した移動対象の推定位置)を算出する。制御部46は、周囲画像において、算出した移動対象の推定位置に対応する位置に、予め決められた所定の仮想オブジェクトを重畳処理する。そして、制御部46は、重畳後の重畳画像を表示部44へ表示する制御を行う。
例えば、図7に示すような作業現場で、フック17に吊下げられた荷物Pを障害物Aの方向に(すなわち、X1方向に)移動させる場合について、説明する。図7は、実際の作業現場の斜視図である。図8は、遠隔操作端末40の表示部44に表示された画像を示す。なお、図8には、複数の表示部要素に分割された表示部44が示される。表示部要素それぞれには、異なる視点の周囲画像(例えば、上述の3方向からの撮影画像)および仮想オブジェクト80が表示されている。
図8には、図7に示されるクレーン1の周囲画像が示される。周囲画像には、図7に示されるフック17及び荷物Pの実際の画像(以下、「移動対象画像」という。)が含まれる。図8には、図7に示されるフック17及び荷物Pに対応する仮想オブジェクト80が、周囲画像内のフック17及び荷物Pの位置からずれた位置に表示されている。
すなわち、図8は、ユーザが操作部42を操作して、表示部44上の仮想オブジェクト80を移動前の位置から図8に示される移動後の位置に移動した状態を示す。移動前の位置は、図8に示されるフック17および荷物Pの位置である。ユーザが操作部42を操作する以前の状態で、仮想オブジェクト80は移動前の位置に位置する。ユーザは、操作部42を操作することにより、図8に示される周囲画像に対して、仮想オブジェクト80をさらに移動できる。
この場合、ユーザは、図8に示す表示部44の画面において、フック17や荷物Pを見ながら作業するのではなく、仮想オブジェクト80を見ながら作業する。そして、表示部44に表示される画像におけるフック17及び荷物Pは、前述の例では11秒後に、その仮想オブジェクト80の移動軌跡に沿って移動する。
図8において、仮想オブジェクト80は、仮想三次元空間に配置された仮想オブジェクト80を、二次元空間に射影したデータである。換言すれば、仮想オブジェクト80は、仮想三次元空間に配置された仮想オブジェクト80を、図8に示すように、予め定めた視点位置から視認した二次元画像に変換(視点変換)した画像である。なお、仮想オブジェクト80は、実空間には含まれない仮想のオブジェクトである。なお、表示部44の表示態様は、図8の場合に限定されず、仮想オブジェクト80を配置した仮想三次元画像が表示部44に表示される構成であってもよい。
仮想オブジェクト80は、例えば、表示部44で扱う事の可能な画像データである。仮想オブジェクト80の画像データは、実空間画像の撮影とは異なるタイミングで撮影されたフック17及び荷物Pの撮影画像の画像データとすることが好ましいが、本発明はこの点において限定されない。仮想オブジェクト80は、他にも例えば、外部装置などで別途作成された画像や印刷物の画像データでもいい。また、仮想オブジェクト80は、移動対象(例えば、フック17および荷物P)を模式的に表現した画像であってもよい。
また、本実施形態においては、作業機として、フック17を用いて荷物Pを移動させる移動式クレーンについて説明したが、本発明はこの点において限定されず、例えば把持装置を有し、荷物Pを把持して移動させる移動式クレーンであってもよい。また、作業機として、高所作業車のようにバケット、バスケット、プラットホーム等の作業床を有する場合であっても、本発明を適用可能である。これらの場合、仮想オブジェクト80は、把持装置又は作業床に関する画像であると好ましい。
次に、上述した画像表示方法を実施するための、遠隔操作端末40の動作について、図9のフローチャートを参照して説明する。
先ず、ステップS1において、遠隔操作端末40の電源を入れると、制御部46は、クレーン1の周囲画像を取得する。この時、制御部46は、次のように周囲画像を取得する。周囲画像は、検知装置145の検知情報に基づき生成される。検知装置145で生成された周囲画像は、通信部75を介して、クレーン1から遠隔操作端末40へと送信される。そして、遠隔操作端末40は、通信部43を介して周囲画像を受け取る。通信部43は、受け取った周囲画像を制御部46へと送り出す。このようにして、制御部46は、クレーン1の周囲画像を取得する。制御部46は、所定の時間間隔で周囲画像を取得してもよい。
次に、ステップS2において、制御部46は、取得した周囲画像を表示部44に表示する。制御部46が所定の時間間隔で周囲画像を取得する場合には、制御部46は、表示部44の周囲画像を所定の時間間隔で更新してもよい。
次に、ステップS3において、制御部46は、操作部42の操作センサ86において、入力操作が検知されたか否かを判定する。このとき、制御部46は、例えば、操作センサ86から送信された操作情報(入力信号)に基づいて、入力操作の検知判定を行う。
その結果、制御部46は、入力操作が検知されていないと判定した場合(ステップS3:No)、入力操作が検知されるまで検知ルーチンを繰り返す。一方、制御部46は、入力操作が検知されたと判定した場合(ステップS3:Yes)、ステップS4において、操作部42から入力された操作情報に基づいて、上述した移動対象の推定位置を算出する。
そして、ステップS5において、制御部46は、表示部44に表示された周囲画像に対して、仮想オブジェクト80を重畳処理する(合成する)。つまり、制御部46は、周囲画像に対して仮想オブジェクト80を重畳した画像(以下、「重畳画像」という。)を生成する。仮想オブジェクト80が重畳される位置は、周囲画像において、ステップS4で演算された移動対象の推定位置に対応する位置(つまり、上述した移動後の位置)である。
次に、ステップS6において、制御部46は、重畳処理後の重畳画像を表示部44に表示する。その後、制御部46は、制御処理をステップS3に戻す。
以上、本実施形態によると、ユーザは、表示部44の画面において、操作部42からの入力操作に基づいて計算された位置にある仮想オブジェクト80を見ながら遠隔操作端末40を操作できる。そのため、ユーザは、通信による遅延を意識せずに操作を行うことができる。
なお、ユーザにより操作部42が操作された場合、制御部46は、操作部42から入力された操作情報を含む制御情報を生成し、クレーン1に送り出す。クレーン1は、受け取った制御情報に基づいて、動作する。この際、クレーン1は、移動対象(例えば、フック17または荷物P)が、表示部44上での仮想オブジェクト80の動きを再現するように動作する。この結果、移動対象は、表示部44における仮想オブジェクト80の移動と同じように、実際に移動する。
なお、表示部44における仮想オブジェクト80の移動と、実際の移動対象の移動との間には、上述の下りの遅延に相当する時間差が存在する。表示部44における仮想オブジェクト80の移動と、表示部44における移動対象の画像(例えば、図8のフック17および荷物P)の移動との間には、上述の下りの遅延と上りの遅延との和に相当する時間差が存在する。
[実施形態2]
図10〜図15を参照して、本発明に係る実施形態2の遠隔操作端末40について説明する。なお、図10及び図11においては、説明のために一部の構成要素は、簡略化して示されている。図10は、実際の作業現場の斜視図である。図11は、遠隔操作端末40の表示部44に表示された画像を示す。
例えば、図10に示すような作業現場で、フック17に吊下げられた荷物Pを障害物Bの方向に(すなわち、X1方向に)移動させる場合について、説明する。この場合、ユーザは、図11に示す表示部44の画面において、フック17や荷物Pを見ながら作業するのではなく、仮想オブジェクト80を見ながら作業する。
図12の上図において、縦軸は、操作部42の操作入力があったか否かを(ON:操作入力アリ;OFF:操作入力ナシ)示す。横軸は時間(t)を示す。
図12の中図において、縦軸は、その操作入力に基づき、フック17が実際に移動しているか否かを(ON:移動している:OFF:移動していない)示す。横軸は時間(t)を示す。
図12の下図において、縦軸は、そのフック17の実際の移動に対応して、表示部44に表示されている画像内でフック17が移動しているか否かを(ON:移動している;OFF:移動していない)示す。横軸は時間(t)を示す。
本実施形態では、図12に示すように、0秒〜30秒までフック17を移動させることを想定していたが、15秒の時点で、図11に示すように仮想オブジェクト80が障害物Bに衝突したため、15秒の時点で操作を停止した場合について、説明する。なお、ここで言う操作の停止とは、遠隔操作端末40の操作部42の入力を止めること、又は、停止操作部45により停止入力を行うこと、のいずれの場合であってもよい。
上述の操作の場合、遠隔操作端末40からクレーン1へと送り出された制御情報(換言すれば、操作命令)は、下りの遅延により5秒遅延するため、クレーン1のフック17及び荷物Pは、5秒〜20秒まで移動する。
一方、操作の停止命令を含む制御情報についても、下りの遅延により5秒遅延するため、クレーン1は、20秒の時点で停止命令を含む制御情報を受信し、フック17の移動を停止する。
しかしながら、フック17及び荷物Pは、5秒〜20秒までの間、移動しているため、結局、フック17及び荷物Pは、20秒の時点で障害物Bに衝突する。
ユーザは、6秒の上りの遅延により、26秒の時点で、フック17及び荷物Pが障害物Bに衝突することを、表示部44の画面において実際に確認する。
そこで、本実施形態では、遠隔操作端末40で操作入力がされてから、クレーン1が実際にその操作を作動するまでの時間に対して、上述の2種類の遅延以外の更なる遅延を設ける構成を有する。
更なる遅延は、通信に起因する遅延ではなく、意図的に設定される遅延である。更なる遅延は、ユーザにより設定されてもよい。あるいは、更なる遅延は、遠隔操作端末40のROM82などの記憶装置に、予め記憶されていてもよい。
具体的な例を、更なる遅延として20秒の遅延を設けた場合について、図13を参照して説明する。
図13の上図において、縦軸は、操作部42の操作入力があったか否かを(ON:操作入力アリ;OFF:操作入力ナシ)示す。横軸は時間(t)を示す。
図13の中図において、縦軸は、その操作入力に基づき、フック17が実際に移動しているか否かを(ON:移動している:OFF:移動していない)示す。横軸は時間(t)を示す。
図13の下図において、縦軸は、そのフック17の実際の移動に対応して、表示部44に表示されている画像内でフック17が移動しているか否かを(ON:移動している;OFF:移動していない)示す。横軸は時間(t)を示す。
図13に示すように、0秒〜30秒までフック17を移動させることを想定していたが、図11に示すように、仮想オブジェクト80が障害物Bに衝突したため、15秒で操作を停止した場合について、説明する。なお、ここで言う操作の停止とは、停止操作部45により停止入力を行うことを意味する。停止入力に基づく停止命令は、更なる遅延を設けることなく、遠隔操作端末40からクレーン1に送り出される。
上記説明したように、0秒〜15秒まで操作入力した場合、操作命令は、下りの遅延により5秒遅延するが、本実施形態では、更なる遅延として20秒の遅延を設けているため、フック17及び荷物Pは、25秒〜40秒の間、移動する予定となる。しかしながら、15秒の時点で、停止操作部45により停止入力が行われている。
停止入力に基づく停止命令は、更なる遅延を設けることなく遠隔操作端末40からクレーン1に送り出される。このため、クレーン1は、遠隔操作端末40が停止命令を送り出した15秒から下りの遅延により5秒遅れた20秒の時点で、停止命令を受け取る。
クレーン1は、停止命令を受け取った20秒の時点で、フック17及び荷物Pの移動予定を停止する。結果として、フック17及び荷物Pは、移動しないため、障害物Bとの衝突も回避される。本実施形態によれば、フック17と障害物Bとの衝突の回避、およびユーザの操作ミスによる操作のやり直しなどが、容易となる。
更なる遅延の時間としては、0秒より大きい時間であれば限定されない。ユーザが仮想オブジェクト80と障害物Bとの衝突を確認してから、停止操作部45により停止入力を行う時間的猶予を考慮すれば、更なる遅延の時間は、5秒以上が好ましい。
より好ましくは、更なる遅延の時間は、想定する一連の作業時間以上の時間であると好ましい。具体的には、例えば30秒間のクレーン1の移動作業の場合、更なる遅延は、30秒以上であると好ましい。あるいは、300秒間のクレーン1の移動作業の場合、更なる遅延は、300秒以上であると好ましい。
これにより、ユーザは、表示部44の画面において、仮想オブジェクト80が全ての作業を無事に達成していることを確認してから、実際のフック17及び荷物Pの移動を開始させることができる。
さらに、荷物Pの積み下ろし作業などの、類似の動作を繰り返し実行する場合、仮想オブジェクト80を移動した際に操作部42から入力された操作情報を記憶させることで、同じ動作を同じ条件で何度も繰り返し実行させることができる。そのため、繰り返し作業を自動操作で実行できるため、作業人員の削減、作業効率の向上などの効果も期待できる。
次に、上記説明した更なる遅延を設ける実施形態における、遠隔操作端末40の実際の作動について、図14及び図15に示されるフローチャートを参照して説明する。
更なる遅延を遠隔操作端末40で管理する場合、遠隔操作端末40の制御部46が、クレーン1に制御情報を送り出す方法として、次の二つの方法がある。制御情報には、遠隔操作端末40の操作部42から入力された操作情報が含まれる。
第一の方法は、制御部46が、操作部42の操作に基づくクレーン1の動作に関する制御情報を、所定の時間(更なる遅延の時間)が経過した後にクレーン1へと送信する方法である。第一の方法の場合、制御情報を受け取ったクレーン1は、直ちに制御情報に含まれる操作情報に基づく動作を開始する。
一方、第二の方法は、制御部46が、所定の時間が経過した後に動作を開始する指示を含んだ制御情報を、クレーン1へと送信する方法である。第二の方法の場合、制御情報を受け取ったクレーン1は、制御情報を受け取ってから所定の時間が経過した後、制御情報に含まれる操作情報に基づく動作を開始する。第一の方法および第二の方法について、図14及び図15を参照して説明する。
第一の方法の場合、先ず、図14のステップS11において、制御部46は、操作部42における入力操作の有無を判定する。具体的には、制御部46は、操作部42(具体的には、操作センサ86)における操作情報の検出結果に基づいて、操作部42における入力操作の有無を判定する。
その結果、制御部46は、操作部42において入力操作が無いと判定した場合(ステップS11:No)、操作部42における入力操作が有りと判定されるまで判定ルーチンを繰り返す。
一方、制御部46は、操作部42における入力操作が有りと判定した場合(ステップS11:Yes)、図14のステップS12において、操作部42から、操作指令信号を取得する。
操作指令信号は、前述したように操作部42の操作入力処理部87で生成される。そして、制御部46は、受け取った操作指令信号を含む制御情報を生成する。
次に、図14のステップS13において、制御部46は、予め設定された所定の時間(更なる遅延の時間)が経過したか否かを判定する。制御部46は、所定の時間が経過していないと判定した場合(ステップS13:No)、所定の時間が経過するまで、待機ルーチンを繰り返す。
一方、制御部46は、所定の時間が経過したと判定した場合(ステップS13:Yes)、図14のステップS14において、制御情報(操作命令)をクレーン1へと送信する。そして、制御部46は、制御処理をステップS11に戻す。
一方、第二の方法の場合、先ず、図15のステップS21において、制御部46は、操作部42における入力操作の有無を判定する。具体的には、制御部46は、操作部42(具体的には、操作センサ86)における操作情報の検出結果に基づいて、操作部42における入力操作の有無を判定する。
その結果、制御部46は、操作部42において入力操作が無いと判定した場合(ステップS21:No)、操作部42における入力操作が有りと判定されるまで判定ルーチンを繰り返す。
一方、制御部46は、操作部42における入力操作が有りと判定した場合(ステップS21:Yes)、図15のステップS22において、操作部42から、操作指令信号を取得する。そして、制御部46は、受け取った操作指令信号を含む制御情報を生成する。
次に、図15のステップS23において、制御部46は、制御情報(操作命令)をクレーン1へと送信する。この場合の制御情報は、フック17の移動方向、移動速度などに操作に関する操作情報と、所定の時間にフック17の移動を開始するように制御する遅延制御情報と、を含む。遅延制御情報は、上述の更なる遅延に関する情報である。次に、制御部46は、制御処理をステップS21に戻す。
なお、本実施形態では、更なる遅延の管理を遠隔操作端末40側で管理する構成について説明したが、本発明はこの点において限定されず、クレーン1側で更なる遅延を管理する構成であってもよい。この場合、遠隔操作端末40からの制御情報を受信したクレーン1の制御装置70は、所定の時間経過した後に、アクチュエータ50へと制御情報を送信する、又は、所定時間後に作業を実施するような制御情報をアクチュエータ50へと送信する、等の方法により、クレーン1側で更なる遅延を管理できる。
以上、本実施形態によると、クレーン1は、操作部42の入力操作後、所定の時間(つまり、下りの遅延時間と更なる遅延時間との和に相当する時間)が経過した後に、実際の動作を開始する。そのため、クレーン1が障害物Bと衝突すると予想される場合であっても、その所定の時間の間にクレーン1を停止させることで、クレーン1と障害物Bとの衝突を回避することができる。
また、所定の時間を経過させる(更なる遅延を設ける)ことで、一連の作業による仮想オブジェクト80の移動軌跡を確認後に、問題なければクレーン1の操作を開始させることができる。
[実施形態3]
以下、本発明に係る実施形態3について説明する。例えば、操作部42の操作スティック42aにおいて、ユーザは、操作スティック42aを所定の方向に倒すことで、フック17は、その方向に対応した方向に、操作量に応じた速度で移動する。
この場合、例えば、ユーザが操作スティック42aの操作量を短時間で変更した場合、フック17の加速度が大きくなり、フック17に吊下げられた荷物が荷振れする場合がある。
この荷振れは、例えば、操作スティック42aをニュートラルの状態からある方向に倒した場合や、ある方向に倒した操作スティック42aを別の方向に倒す、ある方向に倒した操作スティック42aをニュートラルに倒す、等の状況で起こりやすい傾向にある。また、この荷ぶれは、一度発生してしまうと、遠隔操作端末40の操作では止めにくい傾向にある。
そこで、本実施形態では、制御部46がクレーン1に制御情報を送信する際に、操作部42の操作に基づいて計算されたフック17の加速度が、所定の加速度以下となるように制御情報を送信すると好ましい。
以上、本実施形態によると、制御部46は、操作部42の操作に基づいて計算されたフック17の加速度が、所定の加速度以下となるように制御情報をクレーン1へと送信する。そのため、仮想オブジェクト80の操作において、荷振れが発生した場合においても、クレーン1による再現の際に、荷振れを発生させずに作業を実施できる。
[実施形態4]
以下、本発明に係る実施形態4について説明する。操作部42の操作に基づく仮想オブジェクト80の移動について、遠隔操作端末40を操作するユーザが問題ないと判断した場合であっても、新たな障害物の発生などにより、突発的に作業を停止する必要がある場合も考えられる。なお、ここで言う新たな障害物の発生とは、例えば、作業現場にトラックが到着した、他の作業員が作業現場に立ち入った等の状況により起こり得る。
しかしながら、上記説明した上りの遅延により、ユーザは作業現場の状況をすぐには確認できない。また、仮に作業現場の状況を把握できた場合であっても、ユーザによる作業停止命令がクレーン1に到達するまでには、下りの遅延により時間を要する。
そこで、本実施形態では、検知装置145が、遠隔操作端末40から受け取った制御情報に基づいて算出した移動対象の移動軌跡上に、移動対象と衝突し得るような物体を検知した場合に、(遠隔操作端末40の制御部46ではなく)クレーン1の制御装置70が、操作部42の操作情報に基づくクレーン1の動作を停止するように、アクチュエータ50に制御情報を送信する。
つまり、本実施形態の場合、クレーン1は、例えば、受け取った制御情報(例えば、フック17の移動軌跡)及びその時点におけるクレーン1の周囲状況の少なくとも一方に基づいて、作業を安全に行えるか否かを判定する。作業を安全に行えないと判定した場合には、クレーン1は、制御情報に基づく動作を停止する。
本実施形態によると、遠隔地での操作ではなく、実機(すなわち、クレーン1)側で危険を検知して、この検知に基づいてクレーン1の動作を停止することで、突発的な危険も回避することができる。
[付記]
上述した各実施形態において、遠隔操作端末40(具体的には、制御部46)は、以下に説明する二種類の方法で制御情報をクレーン1に送り出す。第一の方法は、上述した実施形態1の構成において採用され得る。
具体的には、第一の方法の場合、遠隔操作端末40(具体的には、制御部46)は、操作部42において操作情報が入力されると、順次、操作情報に基づいて制御情報を生成し、クレーン1に送り出す。第一の方法は、上述した実施形態2において、更なる遅延の管理をクレーン1側で行う構成にも採用され得る。
一方、第二の方法は、上述の実施形態2の構成において、更なる遅延の管理を遠隔操作端末40側で行う構成に採用され得る。
具体的には、第二の方法の場合、遠隔操作端末40(具体的には、制御部46)は、操作部42において操作情報が入力されると、操作情報に基づいて制御情報を生成する。そして、遠隔操作端末40は、操作部42において操作情報が入力されてから所定の時間(更なる遅延に相当する時間)が経過した後、順次、制御情報をクレーン1に送り出す。
遠隔操作端末40が制御情報をクレーン1に送り出す方法は、上述の二種類の方法に限定されない。例えば、遠隔操作端末40は、次のような第三の方法により、制御情報をクレーン1に送り出してもよい。
第三の方法の場合、遠隔操作端末40は、一つの作業毎に、制御情報をクレーン1に送り出す。一つの作業とは、例えば、荷物Pを、図8においてフック17および荷物Pが示される第一状態から、障害物Aの上面に載置された第二状態まで移動する作業を意味する。一つの作業には、複数のクレーン1の動作が含まれてもよい。なお、一つの作業は、ユーザが、一つの作業の開始時点(たとえば、フック17または荷物Pの始点)と終了時点(たとえば、フック17または荷物Pの終点)とを指示することにより決定してもよい。
ユーザは、遠隔操作端末40の操作部42を操作して、表示部44に表示された仮想オブジェクト80を、第一状態から第二状態まで移動させる。この状態で、一つの作業が終了する。この時点において、移動対象は実際には移動していない。
当該作業中、操作部42から入力された操作情報は、遠隔操作端末40のRAMなどの記憶装置(記憶部ともいう。)に記憶される。なお、記憶装置に記憶される情報は、当該作業中、操作部42から入力された操作情報に基づいて制御部46により生成された制御情報であってもよい。
上述の一つの作業が終了すると、当該作業に対応する制御情報が、遠隔操作端末40からクレーン1へと送り出される。なお、ユーザは、遠隔操作端末40からクレーン1に制御情報を送り出すタイミングを指示してもよい。この場合には、遠隔操作端末40は、制御情報を送り出すタイミングをユーザが指定するための入力部(スイッチなど)を有すると好ましい。
以上のような第三の方法の場合、ユーザは、一つの作業の完了を、遠隔操作端末40の表示部44で確認してから、クレーン1を動作させることができる。例えば、遠隔操作端末40の操作において、表示部44上で仮想オブジェクト80が障害物Bに衝突した場合(図11参照)には、ユーザは、操作をやり直すことができる。表示部44上で仮想オブジェクト80が障害物Bに衝突した時点で、制御情報はクレーン1に送られていないため、ユーザは、停止操作などを行う必要がない。
また、ユーザは、遠隔操作端末40において、一つの作業に対して複数の模擬操作を行い、複数の模擬操作から一つの模擬操作を選択してもよい。この際、ユーザは、複数の模擬操作から、例えば、時間条件および経路条件が最適な模擬操作を選択してもよい。このような構成は、作業効率の向上に効果的である。
なお、第三の方法において、クレーン1は、一つの作業に対応する制御情報を総て受け取った後、動作を開始してもよい。あるいは、第三の方法において、クレーン1は、一つの作業に対応する制御情報の一部の情報を受け取った時点で、受け取った情報に基づいて順次動作してもよい。
また、第三の方法において、クレーン1は、受け取った制御情報(例えば、フック17の移動軌跡)及びその時点におけるクレーン1の周囲状況に基づいて、作業を安全に行えるか否かを判定してもよい。作業を安全に行えないと判定した場合には、クレーン1は、制御情報に基づく動作を実行せず、遠隔操作端末40に判定結果に関する情報を送り出す。一方、作業を安全に行えると判定した場合には、クレーン1は、制御情報に基づいて動作する。また、ユーザは、クレーン1が作業を安全に行えないと判断した場合に、停止スイッチなどの停止手段によりクレーン1の動作を停止してもよい。この場合には、ユーザは、クレーン1の状態を遅延なく確認できる場所にいると好ましい。また、停止スイッチなどの停止手段は、クレーン1の動作を実質的な遅延なく停止できると好ましい。
また、以上本発明の各実施形態について説明したが、本発明は上述の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。例えば、移動対象はフックに限定されない。移動対象は、フックまたはブームなどのクレーン1の構成部材だけでなく、クレーン1全体であってもよい。
移動対象がブームの場合には、表示部44に表示されたクレーン1の周囲画像に対して、ブーム14に対応する仮想オブジェクトが重畳して表示される。そして、ユーザは、遠隔操作端末40の操作部42を操作して、表示部44上で仮想オブジェクトを伸縮、起仰、または旋回させる。
なお、例えば、遠隔操作端末の参考例1として、作業装置、制御装置及び検知装置を備える作業機の動作を遠隔操作する遠隔操作端末が挙げられる。このような遠隔操作端末は、制御装置と通信可能に構成される制御部と、検知装置の検知情報に基づき生成された画像を表示するための表示部と、作業装置を遠隔操作するための操作部と、を備える。そして、制御部は、上記画像に対して、操作部の操作情報に基づいて計算された位置に所定の仮想オブジェクトを重畳し、表示部に表示させる。
2016年12月27日出願の特願2016−252978の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。