JP6919817B2 - Crane control system and control method - Google Patents

Crane control system and control method Download PDF

Info

Publication number
JP6919817B2
JP6919817B2 JP2018103114A JP2018103114A JP6919817B2 JP 6919817 B2 JP6919817 B2 JP 6919817B2 JP 2018103114 A JP2018103114 A JP 2018103114A JP 2018103114 A JP2018103114 A JP 2018103114A JP 6919817 B2 JP6919817 B2 JP 6919817B2
Authority
JP
Japan
Prior art keywords
image
target surface
landing target
display
landing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018103114A
Other languages
Japanese (ja)
Other versions
JP2019206424A (en
Inventor
高志 伊東
高志 伊東
昌弘 山本
昌弘 山本
欣也 市村
欣也 市村
靖児 山河
靖児 山河
鈴木 洋平
洋平 鈴木
健太朗 山原
健太朗 山原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsui E&S Machinery Co Ltd
Original Assignee
Mitsui E&S Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsui E&S Machinery Co Ltd filed Critical Mitsui E&S Machinery Co Ltd
Priority to JP2018103114A priority Critical patent/JP6919817B2/en
Publication of JP2019206424A publication Critical patent/JP2019206424A/en
Application granted granted Critical
Publication of JP6919817B2 publication Critical patent/JP6919817B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、クレーンの制御システム及び制御方法に関し、より詳細には、荷役効率を向上するクレーンの制御システム及び制御方法に関する。 The present invention relates to a crane control system and a control method, and more particularly to a crane control system and a control method for improving cargo handling efficiency.

フックを用いたクレーンの操作を遠隔化する装置として、カメラで撮影された画像にフックの地上面等特定の高さの水平面への投影点(予想着床中心点)に対応する投影対応点を表示する装置が提案されている(例えば、特許文献1参照)。 As a device to remoteize the operation of the crane using the hook, the projection corresponding point corresponding to the projection point (expected landing center point) on the horizontal plane of a specific height such as the ground surface of the hook is added to the image taken by the camera. A display device has been proposed (see, for example, Patent Document 1).

この装置では、カメラで撮影された画像に投影対応点を重畳表示することで、クレーンを遠隔地から操作するオペレータに対して、フックの地上面等特定の高さの水平面上の投影点の位置を認識させ易くしている。 This device superimposes the projection corresponding points on the image taken by the camera, so that the operator who operates the crane from a remote location can see the position of the projection point on the horizontal plane at a specific height such as the ground surface of the hook. It makes it easier to recognize.

特開2016−179889号公報Japanese Unexamined Patent Publication No. 2016-179889

ところで、カメラで撮影された画像は、撮影されてから実際に表示装置に表示されるまでの間に遅延が生じるという問題がある。それ故、特許文献1に記載の装置では、オペレータが実際にクレーンの動作を確認して操作のタイミングを図ることができない遠隔操作において、オペレータに対して遅延した画像が表示されることになり、クレーンの操作のタイミングがずれる要因となっている。このような、画像の遅延を起因とした操作のタイミングのずれは、位置合わせの精度を低下させて、荷役効率を低下させる。 By the way, an image taken by a camera has a problem that a delay occurs between the time when the image is taken and the time when the image is actually displayed on the display device. Therefore, in the device described in Patent Document 1, a delayed image is displayed to the operator in a remote operation in which the operator cannot actually confirm the operation of the crane and time the operation. This is a factor that causes the timing of crane operation to shift. Such an operation timing shift due to an image delay lowers the alignment accuracy and lowers the cargo handling efficiency.

本発明の目的は、操作のタイミングの遅れを解消して、荷役効率を向上することができるクレーンの制御システム及び制御方法を提供することである。 An object of the present invention is to provide a crane control system and a control method capable of eliminating delays in operation timing and improving cargo handling efficiency.

上記の目的を達成する本発明のクレーンの制御装置は、一方向に延在する桁部と、この桁部に支持されてこの桁部の延在方向に移動するトロリと、このトロリからワイヤにより吊り下げられた吊具と、を備えるクレーンの制御システムにおいて、前記トロリに設置されて前記吊具及びその下方のその吊具が着床する着床ターゲット面を含む画像を逐次撮像するカメラと、このカメラが撮像したその画像を逐次表示する表示装置と、前記吊具及び前記着床ターゲット面のそれぞれの平面位置を取得する位置取得装置と、前記カメラ、前記表示装置、及び前記位置取得装置に接続された制御装置とを有して、前記位置取得装置が取得した前記平面位置に基づいて、前記制御装置により、前記吊具と前記着床ターゲット面とが平面視で位置が合った状態になったことを特定できる表示が透過背景に描画された上層画像を作成し、作成したその上層画像と前記カメラが撮像した前記画像とを互いに非同期で前記表示装置に積層表示させて、前記上層画像の前記透過背景から前記画像を透過させる構成にしたことを特徴とする。 The control device of the crane of the present invention that achieves the above object is provided by a girder portion extending in one direction, a trolley supported by the girder portion and moving in the extending direction of the girder portion, and a wire from the trolley. In a crane control system including a suspended hanger, a camera installed on the trolley and sequentially capturing an image including a landing target surface on which the hanger and the hanger below it land. The display device that sequentially displays the images captured by the camera, the position acquisition device that acquires the plane positions of the hanger and the landing target surface, the camera, the display device, and the position acquisition device. With the connected control device, the hanger and the landing target surface are aligned in a plan view by the control device based on the plane position acquired by the position acquisition device. An upper layer image is created in which a display that can identify the fact is drawn on a transparent background, and the created upper layer image and the image captured by the camera are laminated and displayed on the display device asynchronously with each other, and the upper layer image is displayed. The image is transparent from the transparent background of the above.

上記の目的を達成する本発明のクレーンの制御方法は、一方向に延在する桁部に支持されてこの桁部の延在方向に走行するトロリからワイヤにより吊り下げられた吊具を降ろして、その吊具の下端又はその吊具が掴んだ吊り荷の下端を着床ターゲット面に着床させるクレーンの制御方法において、前記トロリに設置されたカメラにより前記吊具及びその下方の前記吊具が着床する着床ターゲット面を含む画像を逐次撮像すると同時に、位置取得装置により前記吊具及び前記着床ターゲット面のそれぞれの平面位置を取得し、制御装置により、前記カメラが撮像した前記画像と、取得した前記平面位置に基づいて、前記吊具と前記着床ターゲット面とが平面視で位置が合った状態になったことを特定できる表示を透過背景に描画して作成した上層画像とを、互いに非同期で表示装置に積層表示させて、前記上層画像の前記透過背景から前記画像を透過させることを特徴とする。 The method for controlling a crane of the present invention that achieves the above object is to lower a hanger suspended by a wire from a trolley that is supported by a girder portion extending in one direction and travels in the extending direction of the girder portion. In a method for controlling a crane in which the lower end of the hanger or the lower end of the suspended load grasped by the hanger is landed on the landing target surface, the hanger and the hanger below the hanger are measured by a camera installed in the trolley. At the same time as sequentially capturing images including the landing target surface on which the implant is landed, the position acquisition device acquires the plane positions of the hanger and the landing target surface, and the control device acquires the image captured by the camera. And the upper layer image created by drawing a display on the transparent background that can identify that the hanger and the landing target surface are aligned in a plan view based on the acquired plane position. Are laminated on the display device asynchronously with each other, and the image is transmitted from the transparent background of the upper layer image.

本発明は、透過背景に吊具及び着床ターゲット面が平面視で位置が合った状態になったことを特定できる表示が描画された上層画像とカメラが撮像した画像とを互いに非同期で表示装置に積層表示させる。それ故、本発明によれば、カメラで撮像された画像により吊具の操作を確認しつつ、その画像が表示装置に表示されるまでに遅延が生じても、特定できる表示をリアルタイムに近い状態で表示装置に表示させることができる。これにより、特定できる表示に従わせてオペレータに吊具を操作させることで、操作のタイミングのずれを解消するには有利になり、吊具を着床ターゲット面に着床させたときに吊具と着床ターゲット面との位置が合った状態にできる。 The present invention is a display device for asynchronously displaying an upper layer image on which a display that can identify that the hanger and the landing target surface are aligned in a plan view is drawn on a transparent background and an image captured by a camera. To display in layers. Therefore, according to the present invention, while confirming the operation of the hanging tool by the image captured by the camera, even if there is a delay before the image is displayed on the display device, the identifiable display is in a state close to real time. Can be displayed on the display device with. As a result, by having the operator operate the hanger according to the identifiable display, it is advantageous to eliminate the timing difference of the operation, and when the hanger is landed on the landing target surface, the hanger Can be aligned with the landing target surface.

つまり、本発明によれば、オペレータに対して、吊具を降ろす操作を行うタイミングを、特定できる表示により時間的な遅延無く的確に教えることができる。この特定できる表示に従って吊具を着床させることで、未熟者でも吊具と着床ターゲット面との位置合わせに要する時間の短縮には有利になり、荷役効率を向上することができる。 That is, according to the present invention, it is possible to accurately teach the operator the timing of performing the operation of lowering the hanging tool by the identifiable display without any time delay. By landing the hanger according to this identifiable indication, even an inexperienced person can benefit from shortening the time required for aligning the hanger with the landing target surface, and can improve cargo handling efficiency.

本発明のクレーンの制御システムの実施形態を例示する構成図である。It is a block diagram which illustrates the embodiment of the control system of the crane of this invention. 図1の制御システムを例示するブロックである。It is a block exemplifying the control system of FIG. 図2の下層画像を例示する説明図である。It is explanatory drawing which illustrates the lower layer image of FIG. 図2の中層画像を例示する説明図である。It is explanatory drawing which illustrates the middle layer image of FIG. 図1のスプレッダ及び着床ターゲット面との位置関係を例示する説明図である。It is explanatory drawing which illustrates the positional relationship with the spreader of FIG. 1 and a landing target surface. 図2の上層画像を例示する説明図である。It is explanatory drawing which illustrates the upper layer image of FIG. 図2の積層画像を例示する説明図であり、スプレッダと着床ターゲット面とが平面視で位置が合っていない状態である。It is explanatory drawing which illustrates the laminated image of FIG. 2, and is the state which the spreader and the landing target surface are not aligned with each other in a plan view. 図2の積層画像を例示する説明図であり、スプレッダと着床ターゲット面とが平面視で位置が合っている状態である。It is explanatory drawing which illustrates the laminated image of FIG. 2, and is the state which the spreader and the landing target surface are aligned with each other in a plan view. 図2の制御システムにおける経過時間と下層画像及び中層画像の表示周期、並びに状態量の変化との関係を例示する関係図である。It is a relational figure which illustrates the relationship between the elapsed time in the control system of FIG. 2, the display cycle of the lower layer image and the middle layer image, and the change of the state quantity. 図2の制御システムにおける経過時間と上層画像の表示周期、並びに状態量の変化との関係を例示する関係図である。FIG. 5 is a relationship diagram illustrating the relationship between the elapsed time in the control system of FIG. 2, the display cycle of the upper layer image, and the change in the state quantity. 本発明のクレーンの制御方法の実施形態を例示するフロー図の前半部分である。It is the first half part of the flow chart which illustrates embodiment of the crane control method of this invention. 本発明のクレーンの制御方法の実施形態を例示するフロー図の後半部分である。It is the latter half part of the flow chart which illustrates embodiment of the crane control method of this invention. 図11及び図12のフロー図の各ステップと経過時間との関係を例示する関係図である。11 is a relationship diagram illustrating the relationship between each step of the flow charts of FIGS. 11 and 12 and the elapsed time.

以下、本発明のクレーンの制御システム及び制御方法の実施形態について説明する。図中では、クレーン10の桁部(11、12)の延在する方向をx1方向、x1方向に直交して走行装置16によりクレーン10が移動する方向をy1方向、鉛直方向をz1方向で示す。また、後述する積層画像30における縦方向をx2方向、横方向をy2方向で示す。 Hereinafter, embodiments of the crane control system and control method of the present invention will be described. In the figure, the extending direction of the girders (11, 12) of the crane 10 is shown in the x1 direction, the direction in which the crane 10 is moved by the traveling device 16 orthogonal to the x1 direction is shown in the y1 direction, and the vertical direction is shown in the z1 direction. .. Further, in the laminated image 30 described later, the vertical direction is shown in the x2 direction and the horizontal direction is shown in the y2 direction.

図1及び図2に例示するクレーン10の制御システム20は、クレーン10から離間した施設に存在するオペレータが遠隔操作によりクレーン10にコンテナ31の荷役をさせるシステムである。 The control system 20 of the crane 10 illustrated in FIGS. 1 and 2 is a system in which an operator existing in a facility separated from the crane 10 causes the crane 10 to handle the cargo of the container 31 by remote control.

図1に例示するように、クレーン10は岸壁に停泊した船舶に対してコンテナ31の荷役をするクレーンである。クレーン10は、x1方向に延在する桁部としてのブーム11及びガーダ12と、ブーム11及びガーダ12に支持されてx1方向に移動するトロリ13と、吊具としてトロリ13からワイヤ14により吊り下げられたスプレッダ15と、を備える。 As illustrated in FIG. 1, the crane 10 is a crane that handles cargo of a container 31 for a ship anchored at a quay. The crane 10 is suspended by a boom 11 and a girder 12 as girders extending in the x1 direction, a trolley 13 supported by the boom 11 and the girder 12 and moving in the x1 direction, and a trolley 13 as a hanging tool by a wire 14. The spreader 15 and the spreader 15 are provided.

スプレッダ15は、平面視でトロリ13の中央部から下方に向って吊架した複数本のワイヤ14により吊り下げられて、ワイヤ14が巻き取られるあるいは繰り出されることで、上下に昇降させられる。 The spreader 15 is suspended by a plurality of wires 14 suspended downward from the central portion of the trolley 13 in a plan view, and the wires 14 are wound or unwound to be moved up and down.

桁部(11、12)は、脚構造体(17、18)の上部に支持されて、ブーム11が脚構造体からx1方向海側に張り出し、ガーダ12が脚構造体からx1方向陸側に張り出す。脚構造体は、下端に岸壁に敷設されたy1方向に延在するレールに沿って走行可能な走行装置16が設置されていて、走行装置16から上方に延在する複数の脚体17と、その脚体17を連結する水平梁18とから構成される。 The girders (11, 12) are supported on the upper part of the leg structure (17, 18), the boom 11 projects from the leg structure to the sea side in the x1 direction, and the girder 12 extends from the leg structure to the land side in the x1 direction. Overhang. In the leg structure, a traveling device 16 capable of traveling along a rail laid on the quay in the y1 direction is installed at the lower end, and a plurality of leg bodies 17 extending upward from the traveling device 16 and a plurality of legs 17 It is composed of a horizontal beam 18 connecting the legs 17.

クレーン10は、機械室19に、トロリ13を横行させる図示しない横行装置、ワイヤ14を巻き取るあるいは繰り出すことでスプレッダ15を昇降させる図示しない昇降装置が設置される。なお、クレーン10としては、横行装置がトロリ13に設置されるクレーンや、昇降装置がトロリ13に設置されるクレーンとしてもよい。 The crane 10 is provided with a traversing device (not shown) for traversing the trolley 13 and an elevating device (not shown) for raising and lowering the spreader 15 by winding or unwinding the wire 14 in the machine room 19. The crane 10 may be a crane in which the traversing device is installed in the trolley 13 or a crane in which the elevating device is installed in the trolley 13.

制御システム20は、カメラ21、表示装置22、位置取得装置23、24、制御装置25、クレーン用制御装置26、操作装置27、及び報知装置28を有する。制御システム20は、カメラ21及び位置取得装置23、24が取得した情報に基づいて、制御装置25により、積層画像30を表示装置22に表示させるシステムである。積層画像30は、カメラ21で撮像された下層画像32と位置取得装置23、24が取得した情報に基づいて作成された上層画像33とが互いに非同期で表示装置22に積層表示された画像である。 The control system 20 includes a camera 21, a display device 22, position acquisition devices 23 and 24, a control device 25, a crane control device 26, an operation device 27, and a notification device 28. The control system 20 is a system in which the control device 25 displays the stacked image 30 on the display device 22 based on the information acquired by the camera 21 and the position acquisition devices 23 and 24. The laminated image 30 is an image in which the lower layer image 32 captured by the camera 21 and the upper layer image 33 created based on the information acquired by the position acquisition devices 23 and 24 are asynchronously superimposed and displayed on the display device 22. ..

カメラ21は、トロリ13に設置されていて、スプレッダ15及びその下方の着床ターゲット面34を含む画像である無処理画像35を所定の撮像周期T1ごとに逐次撮像するカメラである。本明細書において、スプレッダ15の下方とは、スプレッダ15が着床するスプレッダ15のz1方向直下も含む。また、着床ターゲット面34は、スプレッダ15の下端、あるいはスプレッダ15が掴んだコンテナ31の下端が着床する面であり、地面、船舶の接地面、あるいはコンテナ31の上面が例示される。また、本明細書において、無処理画像35は、カメラ21で撮像された後に画像処理が一切行われていない画像である。なお、画像処理は、画像の映りに関するパラメータ(画素、濃度、及び情報量など)を補正する画像補正と、画像自体を編集(画像の一部を選択する、切り取る、拡大・縮小するなど)する画像編集とを区別するものとする。 The camera 21 is a camera installed in the trolley 13 that sequentially captures an unprocessed image 35, which is an image including a spreader 15 and a landing target surface 34 below the spreader 15, at predetermined imaging cycles T1. In the present specification, the lower part of the spreader 15 also includes the area directly below the spreader 15 on which the spreader 15 lands in the z1 direction. Further, the landing target surface 34 is a surface on which the lower end of the spreader 15 or the lower end of the container 31 gripped by the spreader 15 is landed, and the ground, the ground contact surface of the ship, or the upper surface of the container 31 is exemplified. Further, in the present specification, the unprocessed image 35 is an image that has not been subjected to any image processing after being captured by the camera 21. The image processing includes image correction for correcting parameters (pixels, density, amount of information, etc.) related to the appearance of the image, and editing of the image itself (selecting a part of the image, cropping, enlarging / reducing, etc.). It shall be distinguished from image editing.

具体的に、カメラ21は、側面視で、トロリ13のx1方向の陸側端部に設置されて、カメラレンズ21aが斜め下に向けられる。カメラ21の光軸A1は、側面視で、上方側がx1方向陸側に、下方側がx1方向海側に向いてz1方向に対して傾く。光軸A1は、カメラレンズ21aの中心であるカメラ中心点C1を通過して、カメラレンズ21aの面に対する垂直方向に延在する仮想的な軸である。光軸A1は、z1方向に対して、左回りに角度θ1傾く。角度θ1は、カメラ21が撮像した無処理画像35にスプレッダ15及びスプレッダ15のz1方向直下に存在する着床ターゲット面34(コンテナ31の上面)が映る角度に設定される。 Specifically, the camera 21 is installed at the land-side end of the trolley 13 in the x1 direction in a side view, and the camera lens 21a is directed obliquely downward. The optical axis A1 of the camera 21 is tilted with respect to the z1 direction, with the upper side facing the land side in the x1 direction and the lower side facing the sea side in the x1 direction in a side view. The optical axis A1 is a virtual axis that passes through the camera center point C1 that is the center of the camera lens 21a and extends in the direction perpendicular to the surface of the camera lens 21a. The optical axis A1 is tilted counterclockwise by an angle θ1 with respect to the z1 direction. The angle θ1 is set to an angle at which the landing target surface 34 (upper surface of the container 31) existing directly below the spreader 15 and the spreader 15 in the z1 direction is reflected on the unprocessed image 35 captured by the camera 21.

このように、制御システム20は、カメラレンズ21aを斜め下に向けて、スプレッダ15及び船舶に積載されたコンテナ31を俯瞰することで、操作が遠隔化されていないクレーンにおいてトロリに設置された運転室に搭乗したオペレータの視界を再現可能になる。これにより、クレーン10から離間した施設に存在するオペレータがカメラ21で撮像された画像によりスプレッダ15の操作を確認することができ、宛も運転室に搭乗した状態で遠隔操作が可能になり、遠隔操作の操作性を向上するには有利になる。 In this way, the control system 20 directs the camera lens 21a diagonally downward and overlooks the spreader 15 and the container 31 loaded on the ship, so that the operation of the control system 20 is installed in the trolley in a crane whose operation is not remoted. It becomes possible to reproduce the view of the operator who boarded the room. As a result, the operator existing in the facility away from the crane 10 can confirm the operation of the spreader 15 by the image captured by the camera 21, and the remote control becomes possible while the addressee is in the driver's cab. It is advantageous to improve the operability of the operation.

なお、カメラ21は、スプレッダ15及び着床ターゲット面34を含んだ無処理画像35を逐次撮像できればよい。カメラ21は、スプレッダ15のz1方向直上に設置されてカメラレンズ21aがz1方向真下に向けられた状態を除いて設置場所やカメラレンズ21aの向きを適宜変更してもよい。撮像周期T1は、特に限定されるものでは無いが、遅くとも後述する位置取得装置23、24のサンプリング周期T2以下の周期が例示される。 It is sufficient that the camera 21 can sequentially capture the unprocessed image 35 including the spreader 15 and the landing target surface 34. The camera 21 may be appropriately changed in the installation location and the direction of the camera lens 21a except that the camera 21 is installed directly above the spreader 15 in the z1 direction and the camera lens 21a is directed directly below in the z1 direction. The imaging cycle T1 is not particularly limited, but at the latest, a cycle equal to or less than the sampling cycle T2 of the position acquisition devices 23 and 24 described later is exemplified.

表示装置22は、積層画像30を逐次表示する一台のディスプレイで構成されている。表示装置22は、クレーン10から離間した施設に設置されて、クレーン10の遠隔操作をするオペレータに対して積層画像30を逐次表示する。一台の表示装置22が一台のクレーン10に対応した積層画像30を表示すればよく、一台の表示装置22が複数台のクレーン10に対応した複数の積層画像30を切り換え可能に表示してもよい。このように、表示装置22がオペレータに対して一台のディスプレイで構成されることで、オペレータは一台のディスプレイに表示された積層画像30により集約された情報に注視して遠隔操作が可能になる。それ故、制御システム20によれば、複数台のディスプレイに表示させる構成に比して、オペレータの視線が移動する頻度が減り、オペレータの注意力が散漫の状態に陥ったり、情報を見落としたりすることを回避するには有利になり、遠隔操作に安全性を向上することができる。 The display device 22 is composed of a single display that sequentially displays the stacked images 30. The display device 22 is installed in a facility separated from the crane 10 and sequentially displays the laminated image 30 to an operator who remotely controls the crane 10. It is sufficient for one display device 22 to display the laminated image 30 corresponding to one crane 10, and one display device 22 can switchably display a plurality of laminated images 30 corresponding to the plurality of cranes 10. You may. In this way, by configuring the display device 22 with one display for the operator, the operator can pay attention to the information aggregated by the laminated image 30 displayed on one display and perform remote control. Become. Therefore, according to the control system 20, the frequency of movement of the operator's line of sight is reduced as compared with the configuration of displaying on a plurality of displays, the operator's attention is distracted, and information is overlooked. It is advantageous to avoid this, and the safety for remote control can be improved.

位置取得装置23、24は、トロリ13に設置されて、スプレッダ15及び着床ターゲット面34の平面位置に高さ位置を加えて三次元位置を所定のサンプリング周期T2ごとに逐次取得する装置である。具体的に、位置取得装置23、24は、スプレッダ中心点C2、着床ターゲット面中心点C3、及び予想着床中心点C4の三次元位置をサンプリング周期T2ごとに逐次取得する装置である。なお、サンプリング周期T2は特に限定されない。 The position acquisition devices 23 and 24 are installed on the trolley 13 and are devices that add a height position to the plane positions of the spreader 15 and the landing target surface 34 to sequentially acquire three-dimensional positions at predetermined sampling periods T2. .. Specifically, the position acquisition devices 23 and 24 are devices that sequentially acquire the three-dimensional positions of the spreader center point C2, the landing target surface center point C3, and the expected landing center point C4 for each sampling period T2. The sampling period T2 is not particularly limited.

位置取得装置23は、二次元レーザーセンサや三次元レーザーセンサによる形状認識システムで構成されて、位置取得装置24は、振れ角センサで構成される。位置取得装置23、24は、少なくともスプレッダ15及び着床ターゲット面34の平面位置を取得できれば上記の構成に限定されない。例えば、スプレッダ15の平面位置を取得する装置として、GPS受信器、ワイヤ14の繰り出し量や巻き取り量を測定する装置が例示される。また、着床ターゲット面34の平面位置を取得する装置として、スプレッダ15に設置されたレーザーセンサが例示される。また、位置取得装置23は、スプレッダ15の平面位置を取得する装置と、着床ターゲット面34の平面位置を取得する装置との二つの装置としてもよい。 The position acquisition device 23 is composed of a shape recognition system using a two-dimensional laser sensor or a three-dimensional laser sensor, and the position acquisition device 24 is composed of a runout angle sensor. The position acquisition devices 23 and 24 are not limited to the above configuration as long as they can acquire at least the plane positions of the spreader 15 and the landing target surface 34. For example, as a device for acquiring the plane position of the spreader 15, a GPS receiver and a device for measuring the feeding amount and the winding amount of the wire 14 are exemplified. Further, as a device for acquiring the plane position of the landing target surface 34, a laser sensor installed on the spreader 15 is exemplified. Further, the position acquisition device 23 may be two devices, a device for acquiring the plane position of the spreader 15 and a device for acquiring the plane position of the landing target surface 34.

スプレッダ15は、平面視で短辺がx1方向に、長辺がy1方向に向いた略長方形状を成して、スプレッダ15の中心であるスプレッダ中心点C2は、長方形状の対角線の交点となる。着床ターゲット面34は、平面視でスプレッダ15あるいはコンテナ31と同様に略長方形状を成して、着床ターゲット面34の中心である着床ターゲット面中心点C3は、長方形状の対角線の交点となる。予想着床中心点C4は、スプレッダ中心点C2が着床ターゲット面34を含む水平面36に鉛直投影された点である。水平面36は、着床ターゲット面34を含んで水平に広がる面であり、z1方向に対して垂直な面である。 The spreader 15 has a substantially rectangular shape with the short side facing the x1 direction and the long side facing the y1 direction in a plan view, and the spreader center point C2, which is the center of the spreader 15, is an intersection of rectangular diagonal lines. .. The landing target surface 34 has a substantially rectangular shape in a plan view similar to the spreader 15 or the container 31, and the landing target surface center point C3, which is the center of the landing target surface 34, is an intersection of rectangular diagonal lines. It becomes. The expected landing center point C4 is a point where the spreader center point C2 is vertically projected onto the horizontal plane 36 including the landing target surface 34. The horizontal plane 36 is a plane that extends horizontally including the landing target plane 34, and is a plane that is perpendicular to the z1 direction.

制御装置25は、各種情報処理を行うCPU、その各種情報処理を行うために用いられるプログラムや情報処理結果を読み書き可能な内部記憶装置、及び各種インターフェースなどから構成されるハードウェアである。制御装置25は、クレーン10から離間した施設、或いはクレーン10の近傍の地上に設置されて、表示装置22及び操作装置27に図示しない信号線を介して電気的に接続される。また、制御装置25は、無線アンテナ又は光ファイバ等の通信線を介してカメラ21、位置取得装置23、24に通信可能に接続される。 The control device 25 is hardware composed of a CPU that performs various information processing, an internal storage device that can read and write programs and information processing results used for performing the various information processing, and various interfaces. The control device 25 is installed in a facility separated from the crane 10 or on the ground in the vicinity of the crane 10, and is electrically connected to the display device 22 and the operation device 27 via a signal line (not shown). Further, the control device 25 is communicably connected to the camera 21, the position acquisition devices 23, and 24 via a communication line such as a wireless antenna or an optical fiber.

制御装置25は、着床ターゲット面34の周囲の状況として船舶に積まれたコンテナ31の配列情報が予め入力される。着床ターゲット面34の周囲の状況は、クレーン10による荷役の進行によって適宜更新される。なお、船舶以外にもコンテナ31を蔵置するコンテナヤードにおけるコンテナ31の配列情報が入力されていてもよい。 In the control device 25, the arrangement information of the containers 31 loaded on the ship is input in advance as the situation around the landing target surface 34. The situation around the landing target surface 34 is appropriately updated as the cargo handling progresses by the crane 10. In addition to the ship, the arrangement information of the container 31 in the container yard where the container 31 is stored may be input.

クレーン用制御装置26は、制御装置25と同様に、CPU、内部記憶装置、及び各種インターフェースなどから構成されるハードウェアである。クレーン用制御装置26は、クレーン10の機械室19に設置されて、トロリ13の横行装置、スプレッダ15の昇降装置、及び走行装置16に図示しない信号線を介して電気的に接続される。また、クレーン用制御装置26は、無線アンテナを介して操作装置27に通信可能に接続される。なお、クレーン用制御装置26は、無線アンテナの代わりに光ケーブルなどの有線通信を介して操作装置27に接続されてもよい。 Like the control device 25, the crane control device 26 is hardware composed of a CPU, an internal storage device, various interfaces, and the like. The crane control device 26 is installed in the machine room 19 of the crane 10 and is electrically connected to the traversing device of the trolley 13, the lifting device of the spreader 15, and the traveling device 16 via a signal line (not shown). Further, the crane control device 26 is communicably connected to the operation device 27 via a wireless antenna. The crane control device 26 may be connected to the operation device 27 via a wired communication such as an optical cable instead of the wireless antenna.

報知装置28は、オペレータに向けて音又は光を発する装置であり、表示装置22を見て操作装置27によりクレーン10を操作しているオペレータに対して音又は光を発することでスプレッダ15の状況を瞬時に知らせることが可能な装置である。報知装置28としては、スピーカ、ブザー、回転灯、及び点滅灯が例示される。スプレッダ15の状況としては、相対位置関係においてスプレッダ15及び着床ターゲット面34が近接した状況やスプレッダ15が着床ターゲット面34以外に接触する可能性があり警告を促す必要がある状況が例示される。 The notification device 28 is a device that emits sound or light toward the operator, and the status of the spreader 15 by emitting sound or light to the operator operating the crane 10 by the operating device 27 by looking at the display device 22. It is a device that can instantly notify. Examples of the notification device 28 include a speaker, a buzzer, a rotating light, and a blinking light. Examples of the situation of the spreader 15 include a situation in which the spreader 15 and the landing target surface 34 are close to each other in a relative positional relationship, and a situation in which the spreader 15 may come into contact with other than the landing target surface 34 and a warning needs to be issued. NS.

図2に例示するように、制御装置25は、各機能要素として、第一画像作成部40、第二画像作成部41、表示制御部42、及び報知制御部43を有し、第二画像作成部41が算出部44、特定表示作成部45、相対位置表示作成部46、及び警告表示作成部47を有する。この実施形態における各機能要素は、プログラムとして内部記憶装置に記憶されていて、適時、CPUにより実行されている。なお、各機能要素としては、プログラムの他にそれぞれが独立して機能する電気回路も例示される。また、各機能要素をPLC(Programmable Logic Controller)で構成し、制御装置25を複数のPLCの集合体としてもよい。 As illustrated in FIG. 2, the control device 25 has a first image creation unit 40, a second image creation unit 41, a display control unit 42, and a notification control unit 43 as each functional element, and creates a second image. The unit 41 includes a calculation unit 44, a specific display creation unit 45, a relative position display creation unit 46, and a warning display creation unit 47. Each functional element in this embodiment is stored as a program in the internal storage device, and is executed by the CPU in a timely manner. In addition to the program, electric circuits in which each function independently functions are also exemplified as each functional element. Further, each functional element may be composed of a PLC (Programmable Logical Controller), and the control device 25 may be an aggregate of a plurality of PLCs.

第一画像作成部40は、カメラ21で撮像された無処理画像35に対して画像処理を施して、下層画像32及び拡大画像37(中層画像38)を作成する機能要素である。具体的に、第一画像作成部40は、無処理画像35に対して画像処理のうちの画像補正のみを行った下層画像32を作成し、次いで、作成した下層画像32に対して画像処理のうちの画像編集を行って複数の拡大画像37で構成される中層画像38を作成する機能要素である。 The first image creating unit 40 is a functional element that performs image processing on the unprocessed image 35 captured by the camera 21 to create a lower layer image 32 and an enlarged image 37 (middle layer image 38). Specifically, the first image creation unit 40 creates a lower layer image 32 in which only the image correction of the image processing is performed on the unprocessed image 35, and then the created lower layer image 32 is subjected to image processing. This is a functional element that edits the image and creates a middle layer image 38 composed of a plurality of enlarged images 37.

図3に例示するように、下層画像32は、カメラ21が撮像した無処理画像35に対して画像補正を施して鮮明化させた画像であり、画像サイズが無処理画像35の画像サイズと同等で、積層画像30の最下層に配置される画像である。下層画像32は、スプレッダ15及び荷役対象となるコンテナ31の上面に設定された着床ターゲット面34が映った画像である。下層画像32は、画像補正に要する遅延時間T3の分だけ、カメラ21で撮像されてから表示装置22に遅れて表示される。なお、遅延時間T3には、カメラ21で撮像された無処理画像35がデータとして送信されて制御装置25に受信されるまでの伝播遅延時間や制御装置25で画像補正された後に表示装置22に表示されるまで伝播遅延時間も含むものとする。 As illustrated in FIG. 3, the lower layer image 32 is an image obtained by performing image correction on the unprocessed image 35 captured by the camera 21 to make it clear, and the image size is equivalent to the image size of the unprocessed image 35. It is an image arranged in the lowermost layer of the laminated image 30. The lower layer image 32 is an image showing the landing target surface 34 set on the upper surface of the spreader 15 and the container 31 to be handled. The lower layer image 32 is displayed on the display device 22 later than the image taken by the camera 21 by the delay time T3 required for the image correction. The delay time T3 includes the propagation delay time until the unprocessed image 35 captured by the camera 21 is transmitted as data and received by the control device 25, and the display device 22 after the image is corrected by the control device 25. It shall include the propagation delay time until it is displayed.

図4に例示するように、中層画像38は、下層画像32に対して画像編集を施して、下層画像32に映る部位の一部を拡大した拡大画像37が複数配置された画像である。中層画像38は、画像サイズが無処理画像35の画像サイズと同等で、積層画像30において下層画像32よりも上層に積層される画像である。 As illustrated in FIG. 4, the middle layer image 38 is an image in which a plurality of enlarged images 37 are arranged by subjecting the lower layer image 32 to image editing and enlarging a part of a portion reflected in the lower layer image 32. The middle layer image 38 is an image whose image size is the same as that of the unprocessed image 35 and is laminated on the layer above the lower layer image 32 in the laminated image 30.

拡大画像37は、下層画像32に映る着床ターゲット面34の四隅のそれぞれを拡大した画像であり、画像サイズが無処理画像35の画像サイズよりも小さく、透過背景38aの四隅に配置される。本明細書において、透過背景38a(後述する透過背景33aも同様)とは下層に配置された画像が透過表示される背景であり、例えば、透明な背景が例示される。また、透過背景38aとしては、特定の色成分を透明にし、透明にした部部分に別の映像を合成するクロマキー合成における背景(ブルーバックやグリーンバック)も例示される。中層画像38は、拡大画像37の画像編集に要する遅延時間T4の分だけ、下層画像32が表示装置22に表示されてから遅れて表示される。遅延時間T4も遅延時間T3と同様に伝播遅延時間を含むものとする。 The enlarged image 37 is an enlarged image of each of the four corners of the landing target surface 34 reflected in the lower layer image 32, and the image size is smaller than the image size of the unprocessed image 35 and is arranged at the four corners of the transparent background 38a. In the present specification, the transparent background 38a (the same applies to the transparent background 33a described later) is a background in which an image arranged in a lower layer is transparently displayed, and for example, a transparent background is exemplified. Further, as the transparent background 38a, a background (blue background or green background) in chroma key composition in which a specific color component is made transparent and another image is synthesized on the transparent portion is also exemplified. The middle layer image 38 is displayed later by the delay time T4 required for image editing of the enlarged image 37 after the lower layer image 32 is displayed on the display device 22. It is assumed that the delay time T4 also includes the propagation delay time like the delay time T3.

図2に例示するように、第二画像作成部41は、位置取得装置23、24が取得した測定値に基づいた図形、目盛り、数値を作成し、それらが適宜配置された上層画像33を作成する機能要素である。具体的に、第二画像作成部41は、位置取得装置23、24が取得した測定値に基づいて、スプレッダ15と着床ターゲット面34とが平面視で位置が合った状態になったことを特定できる表示、スプレッダ15と着床ターゲット面34との相対位置関係に関する表示、及び、スプレッダ15と着床ターゲット面34以外との接触を回避させる警告表示として、図形、目盛り、及び数値が描画された上層画像33を作成する機能要素である。 As illustrated in FIG. 2, the second image creation unit 41 creates figures, scales, and numerical values based on the measured values acquired by the position acquisition devices 23 and 24, and creates an upper layer image 33 in which they are appropriately arranged. It is a functional element to be used. Specifically, the second image creation unit 41 indicates that the spreader 15 and the landing target surface 34 are in a state of being aligned in a plan view based on the measured values acquired by the position acquisition devices 23 and 24. Figures, scales, and numerical values are drawn as identifiable displays, displays relating to the relative positional relationship between the spreader 15 and the landing target surface 34, and warning displays for avoiding contact between the spreader 15 and other than the landing target surface 34. This is a functional element for creating the upper layer image 33.

算出部44は、位置取得装置23、24が取得した測定値に基づいて、特定できる表示に要する算出値、相対位置関係に関する表示に要する算出値、及び警告表示の判定に要する算出値を算出する機能要素である。具体的に、算出部44は、特定できる表示に要する算出値として、位置取得装置23、24が取得した三次元位置に基づいて、着床ターゲット面中心点C3、及び予想着床中心点C4の積層画像30における二次元座標を算出する機能要素である。また、算出部44は、相対位置関係に関する表示に要する算出値として、位置取得装置23、24が取得した三次元位置に基づいて、スプレッダ15及び着床ターゲット面34の間のz1方向の高さH7、x1方向の距離L5、及びスプレッダ15の鉛直軸回りの回転角度であるスキュー角度θ5を算出する機能要素である。加えて、算出部44は、警告表示の判定に要する算出値として、平面視における着床ターゲット面34の中心からスプレッダ15の一端までの距離(L5+L6)と、着床ターゲット面34の中心からその周囲に存在するコンテナ31の一端までの距離(L7+L8)を算出する機能要素である。 The calculation unit 44 calculates the calculated value required for the identifiable display, the calculated value required for the display related to the relative positional relationship, and the calculated value required for determining the warning display based on the measured values acquired by the position acquisition devices 23 and 24. It is a functional element. Specifically, the calculation unit 44 determines the landing target surface center point C3 and the expected landing center point C4 based on the three-dimensional positions acquired by the position acquisition devices 23 and 24 as the calculated values required for the identifiable display. It is a functional element for calculating the two-dimensional coordinates in the laminated image 30. Further, the calculation unit 44 determines the height in the z1 direction between the spreader 15 and the landing target surface 34 based on the three-dimensional positions acquired by the position acquisition devices 23 and 24 as the calculated values required for displaying the relative positional relationship. It is a functional element that calculates the distance L5 in the H7 and x1 directions, and the skew angle θ5, which is the rotation angle around the vertical axis of the spreader 15. In addition, the calculation unit 44 determines the distance (L5 + L6) from the center of the landing target surface 34 to one end of the spreader 15 in plan view and the distance (L5 + L6) from the center of the landing target surface 34 as the calculated values required for determining the warning display. It is a functional element that calculates the distance (L7 + L8) to one end of the container 31 existing in the surroundings.

図5に例示するように、算出部44は、光軸A1及びカメラ中心点C1から着床ターゲット面中心点C3までを結ぶ線分A3のなす角である着床ターゲットなす角θ3と、光軸A1及びカメラ中心点C1から予想着床中心点C4までを結ぶ線分A4のなす角である予想着床なす角θ4と、を算出する。そして、算出部44は、算出した着床ターゲットなす角θ3及び予想着床なす角θ4を用いて着床ターゲット面中心点C3及び予想着床中心点C4の積層画像30(上層画像33)における二次元座標(Lθ3、Lθ4)を算出する。また、算出部44は、その二次元座標を算出する過程で、高さH7、距離L5、スキュー角度θ5、距離(L5+L6)、及び距離(L7+L8)を算出する。 As illustrated in FIG. 5, the calculation unit 44 includes a landing target angle θ3, which is an angle formed by a line segment A3 connecting the optical axis A1 and the camera center point C1 to the landing target surface center point C3, and an optical axis. The expected landing angle θ4, which is the angle formed by the line segment A4 connecting A1 and the camera center point C1 to the expected landing center point C4, is calculated. Then, the calculation unit 44 uses the calculated landing target formed angle θ3 and the predicted landing target surface center point C3 and the predicted landing center point C4 in the laminated image 30 (upper layer image 33). The dimensional coordinates (Lθ3, Lθ4) are calculated. Further, the calculation unit 44 calculates the height H7, the distance L5, the skew angle θ5, the distance (L5 + L6), and the distance (L7 + L8) in the process of calculating the two-dimensional coordinates.

以下では、スプレッダ中心点C2、着床ターゲット面中心点C3、及び予想着床中心点C4の平面位置(x1座標、y1座標)のうちのy1座標が略一致しているものとする。クレーン10において、スプレッダ15をz1方向に昇降するときに走行装置16によるy1方向の移動は完了しており、y1方向の位置合わせは完了している。また、スプレッダ15をz1方向に昇降するときのスプレッダ15の揺れは、主にトロリ13の移動方向に生じる。 In the following, it is assumed that the y1 coordinates of the plane positions (x1 coordinates, y1 coordinates) of the spreader center point C2, the landing target surface center point C3, and the expected landing center point C4 are substantially the same. In the crane 10, when the spreader 15 is moved up and down in the z1 direction, the movement in the y1 direction by the traveling device 16 is completed, and the alignment in the y1 direction is completed. Further, the shaking of the spreader 15 when the spreader 15 is moved up and down in the z1 direction mainly occurs in the moving direction of the trolley 13.

算出部44で、着床ターゲットなす角θ3と予想着床なす角θ4とを算出する際のx1方向の中心点C5は、スプレッダ15とワイヤ14とを単純振り子と見做した場合に、その単純振り子の支点となる位置を示している。また、z1方向の高さの基準となる基準面39はトロリ13の下端面であり、その支点となる中心点C5を通る鉛直線に垂直な水平面と見做す。なお、中心点C5及び基準面39は任意に設定可能であり、中心点C5はトロリ13のx1方向の中心とは限らず、基準面39はz1方向の高さの基準となればよく、トロリ13の下端面とは限らない。 When the calculation unit 44 calculates the landing target angle θ3 and the expected landing angle θ4, the center point C5 in the x1 direction is simple when the spreader 15 and the wire 14 are regarded as a simple pendulum. It shows the position that serves as the fulcrum of the pendulum. Further, the reference surface 39 which is the reference of the height in the z1 direction is the lower end surface of the trolley 13, and is regarded as a horizontal plane perpendicular to the vertical line passing through the center point C5 which is the fulcrum thereof. The center point C5 and the reference surface 39 can be arbitrarily set. The center point C5 is not necessarily the center of the trolley 13 in the x1 direction, and the reference surface 39 may serve as a reference for the height in the z1 direction. It is not always the lower end surface of 13.

図中のH1、H2は位置取得装置23が取得する測定値であり、H3〜H5は予め設定された設定値であり、H6、H7は測定値H1、H2に基づいて算出部44が算出される算出値であり、それぞれz1方向下方を正、上方を負とする高さを示す。測定値H1は、位置取得装置23の下端から着床ターゲット面34までの高さである。測定値H2は、位置取得装置23の下端からスプレッダ15の上面までの高さである。設定値H3は、水平面36から位置取得装置23の下端までの高さである。設定値H4は、基準面39からカメラ中心点C1までの高さである。設定値H5は、スプレッダ15の上端から下端までの高さである。算出値H6は、カメラ中心点C1から着床ターゲット面34までの高さである。算出値である高さH7は、スプレッダ15の下端から着床ターゲット面34までの間のz1方向の高さであり、スプレッダ15が着床ターゲット面34に着床するまでの高さである。設定値H5は、スプレッダ15がコンテナ31を掴んでいる場合に、スプレッダ15の上端からコンテナ31の下端までの高さになる。また、測定値H2は、ロープ繰り出し量に基づいて取得される場合に、基準面39からスプレッダ15の上面までの高さ(H2+H3)としてもよい。 In the figure, H1 and H2 are measured values acquired by the position acquisition device 23, H3 to H5 are preset set values, and H6 and H7 are calculated by the calculation unit 44 based on the measured values H1 and H2. The heights are calculated so that the lower part in the z1 direction is positive and the upper part is negative. The measured value H1 is the height from the lower end of the position acquisition device 23 to the landing target surface 34. The measured value H2 is the height from the lower end of the position acquisition device 23 to the upper surface of the spreader 15. The set value H3 is the height from the horizontal plane 36 to the lower end of the position acquisition device 23. The set value H4 is the height from the reference surface 39 to the camera center point C1. The set value H5 is the height from the upper end to the lower end of the spreader 15. The calculated value H6 is the height from the camera center point C1 to the landing target surface 34. The calculated height H7 is the height in the z1 direction between the lower end of the spreader 15 and the landing target surface 34, and is the height until the spreader 15 lands on the landing target surface 34. The set value H5 is the height from the upper end of the spreader 15 to the lower end of the container 31 when the spreader 15 is gripping the container 31. Further, the measured value H2 may be the height (H2 + H3) from the reference surface 39 to the upper surface of the spreader 15 when acquired based on the rope feeding amount.

図中のL1は位置取得装置23が取得する測定値であり、L2、L3、L6、L7、L8は予め設定された設定値であり、L4、L5は算出部44が算出する算出値であり、それぞれx1方向右側を正、左側を負とする長さを示す。測定値L1は、位置取得装置23のx1方向の中心から着床ターゲット面中心点C3までの長さである。設定値L2は、中心点C5から位置取得装置23のx1方向の中心までの長さである。設定値L3は、中心点C5からカメラ中心点C1までの長さである。設定値L6は、スプレッダ15のx1方向の中心から側面までの長さである。設定値L7は、コンテナ31のx1方向の中心から側面までの長さ、すなわちコンテナ31のX1方向の長さの半分である。設定値L8は、x1方向に隣接するコンテナ31どうしの間の距離である。算出値L4は、カメラ中心点C1から着床ターゲット面中心点C3までの長さである。算出値である距離L5は、着床ターゲット面中心点C3から予想着床中心点C4までの間のx1方向の長さ(距離)であり、着床ターゲット面34に対するスプレッダ15のずれ量である。設定値L7、L8は制御装置25に予め入力されたコンテナ31の配列情報に基づいた値を用いてもよい。但し、船舶ごとにコンテナ31の積み位置が異なることから、設定値L8に関しては、形状認識システムで構成される位置取得装置23で取得した積み山形状に基づいて算出される値が好ましい。 In the figure, L1 is a measured value acquired by the position acquisition device 23, L2, L3, L6, L7, and L8 are preset set values, and L4 and L5 are calculated values calculated by the calculation unit 44. , The right side in the x1 direction is positive, and the left side is negative. The measured value L1 is the length from the center of the position acquisition device 23 in the x1 direction to the center point C3 of the landing target surface. The set value L2 is the length from the center point C5 to the center of the position acquisition device 23 in the x1 direction. The set value L3 is the length from the center point C5 to the camera center point C1. The set value L6 is the length from the center to the side surface of the spreader 15 in the x1 direction. The set value L7 is half the length from the center to the side surface of the container 31 in the x1 direction, that is, the length of the container 31 in the x1 direction. The set value L8 is the distance between the containers 31 adjacent to each other in the x1 direction. The calculated value L4 is the length from the camera center point C1 to the landing target surface center point C3. The calculated distance L5 is the length (distance) in the x1 direction between the landing target surface center point C3 and the expected landing center point C4, and is the amount of deviation of the spreader 15 with respect to the landing target surface 34. .. As the set values L7 and L8, values based on the array information of the container 31 input in advance to the control device 25 may be used. However, since the stacking position of the container 31 is different for each ship, the set value L8 is preferably a value calculated based on the stacking shape acquired by the position acquisition device 23 configured by the shape recognition system.

図中のθ1は予め設定された設定値であり、θ2、θ5は位置取得装置24が取得する測定値であり、θ3、θ4は算出部44が算出する算出値であり、それぞれz1方向に対して左回りを正、右回りを負とする傾きを示す。設定値θ1は、カメラ21の光軸A1の傾きである。測定値θ2は、スプレッダ15のx1方向の振れ角であり、鉛直線と、振れ角センサで構成される位置取得装置24の下端面及び中心点C5を通る鉛直線の交点並びにスプレッダ中心点C2を結ぶ線分とのなす角である。測定値であるスキュー角度θ5は、スプレッダ15の鉛直軸回りの回転角度である。着床ターゲットなす角θ3は、着床ターゲット面中心点C3及びカメラ中心点C1を結ぶ線分A3と光軸A1とのなす角である。予想着床なす角θ4は、予想着床中心点C4及びカメラ中心点C1を結ぶ線分A4と光軸A1とのなす角である。 In the figure, θ1 is a preset set value, θ2 and θ5 are measured values acquired by the position acquisition device 24, and θ3 and θ4 are calculated values calculated by the calculation unit 44, respectively, with respect to the z1 direction. The slope is positive for counterclockwise and negative for clockwise. The set value θ1 is the inclination of the optical axis A1 of the camera 21. The measured value θ2 is the runout angle of the spreader 15 in the x1 direction, and the intersection of the vertical line and the vertical line passing through the lower end surface of the position acquisition device 24 composed of the runout angle sensor and the center point C5 and the spreader center point C2 It is the angle formed by the connecting line segment. The skew angle θ5, which is a measured value, is a rotation angle of the spreader 15 around the vertical axis. The landing target formed angle θ3 is an angle formed by the line segment A3 connecting the landing target surface center point C3 and the camera center point C1 and the optical axis A1. The expected landing angle θ4 is the angle formed by the line segment A4 connecting the predicted landing center point C4 and the camera center point C1 and the optical axis A1.

算出部44は、着床ターゲットなす角θ3に基づいて、着床ターゲット面中心点C3の積層画像30における二次元座標を算出する。具体的に、算出部44は、下記の数式(1)〜(3)を用いて着床ターゲットなす角θ3を算出し、算出した着床ターゲットなす角θ3とカメラ21の画素数とに基づいて、着床ターゲット面中心点C3の積層画像30(あるいは上層画像33)におけるx2座標(Lθ3:図6参照)を算出する。 The calculation unit 44 calculates the two-dimensional coordinates of the landing target surface center point C3 in the laminated image 30 based on the angle θ3 formed by the landing target. Specifically, the calculation unit 44 calculates the landing target formed angle θ3 using the following mathematical formulas (1) to (3), and based on the calculated landing target formed angle θ3 and the number of pixels of the camera 21. , The x2 coordinates (Lθ3: see FIG. 6) in the laminated image 30 (or the upper layer image 33) of the landing target surface center point C3 are calculated.

Figure 0006919817
Figure 0006919817

算出部44は、予想着床なす角θ4に基づいて、予想着床中心点C4の積層画像30における二次元座標を算出する。具体的に、算出部44は、上記の数式(2)、(3)及び下記の数式(4)、(5)を用いて予想着床なす角θ4を算出し、算出したなす角θ4とカメラ21の画素数とに基づいて、予想着床中心点C4の積層画像30におけるx2座標(Lθ4:図6参照)を算出する。 The calculation unit 44 calculates the two-dimensional coordinates of the predicted landing center point C4 in the laminated image 30 based on the predicted landing angle θ4. Specifically, the calculation unit 44 calculates the expected landing angle θ4 using the above formulas (2) and (3) and the following formulas (4) and (5), and the calculated suspended angle θ4 and the camera. Based on the number of pixels of 21, the x2 coordinates (Lθ4: see FIG. 6) in the laminated image 30 of the expected implantation center point C4 are calculated.

Figure 0006919817
算出部44は、下記の数式(6)を用いて、着床までの距離として高さH7を算出する。
Figure 0006919817
The calculation unit 44 calculates the height H7 as the distance to the landing by using the following mathematical formula (6).

Figure 0006919817
Figure 0006919817

特定表示作成部45は、算出部44が算出した二次元座標((Lθ3、0)、(Lθ4、0))に基づいて、特定できる表示として、着床ターゲット面中心点C3を示す着床ターゲット印33b及び予想着床中心点C4を示す予想着床印33cを上層画像33の透過背景33aに描画する機能要素である。 The specific display creation unit 45 is a landing target indicating the landing target surface center point C3 as a display that can be specified based on the two-dimensional coordinates ((Lθ3, 0), (Lθ4, 0)) calculated by the calculation unit 44. It is a functional element that draws the expected landing mark 33c indicating the mark 33b and the expected landing center point C4 on the transparent background 33a of the upper layer image 33.

相対位置表示作成部46は、算出部44が算出したスプレッダ15及び着床ターゲット面34の間のz1方向の高さH7、x1方向の距離L5、及びスプレッダ15の鉛直軸回りのスキュー角度θ5に基づいて、相対位置関係に関する表示として、高さ表示33d、距離表示33e、及び角度表示33fを上層画像33の透過背景33aに描画する機能要素である。 The relative position display creation unit 46 sets the height H7 in the z1 direction between the spreader 15 and the landing target surface 34 calculated by the calculation unit 44, the distance L5 in the x1 direction, and the skew angle θ5 around the vertical axis of the spreader 15. Based on this, it is a functional element that draws the height display 33d, the distance display 33e, and the angle display 33f on the transparent background 33a of the upper layer image 33 as displays relating to the relative positional relationship.

警告表示作成部47は、算出部44が算出した距離(L5+L6)、(L7+L8)に基づいて、スプレッダ15と着床ターゲット面34以外との接触を回避させる警告表示を発するか否かを判定し、警告表示を発すると判定した場合に、警告表示33gを上層画像33の透過背景33aに機能要素である。なお、警告表示作成部47は、スプレッダ15のスキュー振れ分も追加した距離に基づいて警告表示を発するか否かを判定することが好ましい。 The warning display creating unit 47 determines whether or not to issue a warning display for avoiding contact between the spreader 15 and the landing target surface 34, based on the distances (L5 + L6) and (L7 + L8) calculated by the calculation unit 44. When it is determined that the warning display is to be issued, the warning display 33g is a functional element in the transparent background 33a of the upper layer image 33. It is preferable that the warning display creating unit 47 determines whether or not to issue a warning display based on the added distance of the skew runout of the spreader 15.

図6に例示するように、上層画像33は、位置取得装置23、24が取得した測定値に基づいて、スプレッダ15と着床ターゲット面34との関係を図形、数値、及び目盛りにより視覚化した画像であり、特定表示作成部45、相対位置表示作成部46、及び警告表示作成部47のそれぞれによりそれらの図形、数値、及び目盛りが描画された画像である。上層画像33は、画像サイズが無処理画像35と同等で、積層画像30において下層画像32よりも上層に積層される画像である。具体的に、上層画像33は、特定できる表示として、着床ターゲット面中心点C3を示す着床ターゲット印33b及び予想着床中心点C4を示す予想着床印33cが描画される。また、上層画像33は、相対位置関係に関する表示として、スプレッダ15及び着床ターゲット面34の間のz1方向の高さ(スプレッダ15が着床するまでの距離)H7を示す高さ表示33d、x1方向の距離L5を示す距離表示33e、スプレッダ15の鉛直軸回りのスキュー角度θ5を示す角度表示33fが描画される。加えて、上層画像33は、スプレッダ15と着床ターゲット面34以外との接触の回避を促す警告表示33gが描画される。上層画像33は、僅かな算出遅れを起因とする遅延時間T5の分だけ、位置取得装置23、24が三次元位置を取得してから表示装置22に遅れて表示される。なお、遅延時間T5も遅延時間T3と同様に伝播遅延時間を含むものとする。 As illustrated in FIG. 6, the upper layer image 33 visualizes the relationship between the spreader 15 and the landing target surface 34 by figures, numerical values, and scales based on the measured values acquired by the position acquisition devices 23 and 24. It is an image in which figures, numerical values, and scales are drawn by each of the specific display creation unit 45, the relative position display creation unit 46, and the warning display creation unit 47. The upper layer image 33 is an image in which the image size is the same as that of the unprocessed image 35 and is laminated on the upper layer than the lower layer image 32 in the laminated image 30. Specifically, in the upper layer image 33, the landing target mark 33b indicating the landing target surface center point C3 and the expected landing mark 33c indicating the expected landing center point C4 are drawn as identifiable displays. Further, the upper layer image 33 is a height display 33d, x1 indicating the height (distance until the spreader 15 lands) H7 in the z1 direction between the spreader 15 and the landing target surface 34 as a display relating to the relative positional relationship. A distance display 33e indicating the distance L5 in the direction and an angle display 33f indicating the skew angle θ5 around the vertical axis of the spreader 15 are drawn. In addition, the upper layer image 33 is drawn with a warning display 33g that encourages avoidance of contact between the spreader 15 and the landing target surface 34. The upper layer image 33 is displayed later on the display device 22 after the position acquisition devices 23 and 24 acquire the three-dimensional position by the delay time T5 due to the slight calculation delay. The delay time T5 also includes the propagation delay time like the delay time T3.

図2に例示するように、表示制御部42は、第一画像作成部40で作成された下層画像32及び中層画像38と、第二画像作成部41で作成された上層画像33とを非同期で積層合成して積層画像30を作成し、作成したその積層画像30を表示装置22に表示させる機能要素である。 As illustrated in FIG. 2, the display control unit 42 asynchronously transfers the lower layer image 32 and the middle layer image 38 created by the first image creation unit 40 and the upper layer image 33 created by the second image creation unit 41. It is a functional element that creates a laminated image 30 by laminating and synthesizing, and displays the created laminated image 30 on the display device 22.

本明細書において、非同期とは、各画像どうしの間の同期を取らないことである。例えば、同時刻にカメラ21で撮像すると共に位置取得装置23、24で測定値を取得した場合に、下層画像32及び中層画像38の作成に要する時間よりも、上層画像33の作成に要する時間の方が短いため、表示装置22には先に作成が完了する上層画像33から表示される。つまり、各画像は作成されると即時に積層画像30として積層合成されて表示装置22に表示される。 As used herein, asynchronous means that the images are not synchronized with each other. For example, when the images are taken by the camera 21 and the measured values are acquired by the position acquisition devices 23 and 24 at the same time, the time required to create the upper layer image 33 is longer than the time required to create the lower layer image 32 and the middle layer image 38. Since the length is shorter, the display device 22 displays the upper layer image 33, which is completed first. That is, as soon as each image is created, it is laminated and combined as a laminated image 30 and displayed on the display device 22.

図7及び図8に例示するように、積層画像30は、上層から下層に向かって順に上層画像33、中層画像38、及び下層画像32が積層され、上層画像33の透過背景33a及び中層画像38の透過背景38aから下層画像32を透過させた画像である。積層画像30は、上層画像33、中層画像38、及び下層画像32のそれぞれの時間軸が異なる画像である。具体的に、積層画像30は、上層画像33に描画される図形、数値、目盛りの時間、下層画像32に描画される映像の時間、及び中層画像38の拡大画像37に描画される映像の時間の順に実際の時刻から遅れが生じ、上層画像33に描画される図形、数値、目盛りの時間が最も実際の時刻に近くなる。 As illustrated in FIGS. 7 and 8, in the laminated image 30, the upper layer image 33, the middle layer image 38, and the lower layer image 32 are laminated in this order from the upper layer to the lower layer, and the transparent background 33a and the middle layer image 38 of the upper layer image 33 are laminated. This is an image in which the lower layer image 32 is transmitted from the transparent background 38a of the above. The laminated image 30 is an image in which the time axes of the upper layer image 33, the middle layer image 38, and the lower layer image 32 are different from each other. Specifically, the laminated image 30 has a figure drawn on the upper layer image 33, a numerical value, a scale time, an image time drawn on the lower layer image 32, and an image time drawn on the enlarged image 37 of the middle layer image 38. There is a delay from the actual time in the order of, and the time of the figure, the numerical value, and the scale drawn on the upper layer image 33 becomes the closest to the actual time.

積層画像30は、特定できる表示である着床ターゲット印33b及び予想着床印33cが表示装置22の表示領域(画面)の中央部に配置され、それ以外の相対位置関係に関する表示(33d〜33f)や警告表示33gが表示領域の外縁部に配置される。また、拡大画像37も表示領域の外縁部に配置される。このように、スプレッダ15の操作タイミングを具体的に図ることが可能な情報を表示領域の中央部に配置し、その操作タイミングを図る上で補助的に作用する情報を表示領域の外縁部に配置することで、情報に優劣を付けることができる。これにより、スプレッダ15の操作タイミングを図る上で最も重要な特定できる表示を目立たせるには有利になり、操作タイミングを見逃す頻度を低減することができる。なお、下層画像32におけるスプレッダ15及び着床ターゲット面34は、特定できる表示と同様に表示装置22の表示領域の中央部で透過表示されることが望ましい。 In the laminated image 30, the landing target mark 33b and the expected landing mark 33c, which are identifiable displays, are arranged in the central portion of the display area (screen) of the display device 22, and other displays (33d to 33f) relating to the relative positional relationship. ) And the warning display 33g are arranged at the outer edge of the display area. The enlarged image 37 is also arranged at the outer edge of the display area. In this way, information that can specifically determine the operation timing of the spreader 15 is arranged in the central portion of the display area, and information that assists in determining the operation timing is arranged in the outer edge portion of the display area. By doing so, it is possible to give superiority or inferiority to the information. This is advantageous for conspicuous the most important identifiable display in determining the operation timing of the spreader 15, and the frequency of overlooking the operation timing can be reduced. It is desirable that the spreader 15 and the landing target surface 34 in the lower layer image 32 are transparently displayed in the central portion of the display area of the display device 22 in the same manner as the identifiable display.

図9及び図10に例示するように、経過時間における各画像の状態量の変化と各画像の表示周期を比較する。ここでいう状態量とは、例えば、スプレッダ15の移動量が例示される。下層画像32の表示周期と中層画像38の表示周期はカメラ21の撮像周期T1、すなわち無処理画像35の表示と同一の周期であり、上層画像33の表示周期は位置取得装置23、24のサンプリング周期T2と同一の周期である。つまり、実際の状態量が連続的に変化することに対して、各画像における状態量は各画像の表示周期ごとに変化する。換言すると、各画像における状態量は各画像の表示周期が経過するまでは変化しない。一方で、下層画像32の表示周期は撮像周期T1に対して遅延時間T3が生じ、中層画像38の表示周期は撮像周期T1に対して遅延時間T3及び遅延時間T4を合計した時間が生じ、上層画像33の表示周期はサンプリング周期T2に対して遅延時間T5が生じる。結果、同一の時間t4における下層画像32は時間t2における画像となり、中層画像38は時間t1における画像となり、上層画像33は時間t3における画像となる。なお、図中の時間α、β、γは各画像において状態量が変化してから経過した時間を示す。 As illustrated in FIGS. 9 and 10, the change in the state quantity of each image with the elapsed time and the display cycle of each image are compared. The state quantity referred to here is, for example, the amount of movement of the spreader 15. The display cycle of the lower layer image 32 and the display cycle of the middle layer image 38 are the same as the imaging cycle T1 of the camera 21, that is, the display of the unprocessed image 35, and the display cycle of the upper layer image 33 is the sampling of the position acquisition devices 23 and 24. It is the same cycle as the cycle T2. That is, while the actual state quantity changes continuously, the state quantity in each image changes with each display cycle of each image. In other words, the state quantity in each image does not change until the display cycle of each image elapses. On the other hand, the display cycle of the lower layer image 32 has a delay time T3 with respect to the imaging cycle T1, and the display cycle of the middle layer image 38 has a time obtained by summing the delay time T3 and the delay time T4 with respect to the imaging cycle T1. In the display cycle of the image 33, a delay time T5 occurs with respect to the sampling cycle T2. As a result, the lower layer image 32 at the same time t4 becomes an image at time t2, the middle layer image 38 becomes an image at time t1, and the upper layer image 33 becomes an image at time t3. The times α, β, and γ in the figure indicate the time elapsed since the state quantity changed in each image.

報知制御部43は、第二画像作成部41の算出部44から相対位置表示作成部46に送信される算出値に基づいて、スプレッダ15及び着床ターゲット面34の相対位置関係に関する情報を報知装置28に報知させる機能要素である。また、報知制御部43は、第二画像作成部41の警告表示作成部47における判定に基づいて、警告表示作成部47が警告表示を発すると判定した場合に、スプレッダ15と着床ターゲット面34以外との接触を回避させる警告を報知装置28に報知させる機能要素でもある。例えば、報知装置28は、経時的に音を大きくしたり、音が発せられる間隔を狭めたりして、スプレッダ15及び着床ターゲット面34が近接した状況を報知する。また、報知装置28は、瞬時に警告音を大きくして、スプレッダ15が着床ターゲット面34以外に接触する可能性を警告する。加えて、報知装置28は、スプレッダ15が着床ターゲット面34に着床した時に、スプレッダ15が着床したときに発する着床音を模した音を鳴らして、スプレッダ15が着床ターゲット面34に着床したことを報知する。 The notification control unit 43 notifies information regarding the relative positional relationship between the spreader 15 and the landing target surface 34 based on the calculated value transmitted from the calculation unit 44 of the second image creation unit 41 to the relative position display creation unit 46. It is a functional element to notify 28. Further, when the notification control unit 43 determines that the warning display creation unit 47 issues a warning display based on the determination in the warning display creation unit 47 of the second image creation unit 41, the spreader 15 and the landing target surface 34 It is also a functional element that notifies the notification device 28 of a warning for avoiding contact with other than. For example, the notification device 28 notifies a situation in which the spreader 15 and the landing target surface 34 are close to each other by increasing the sound over time or narrowing the interval at which the sound is emitted. Further, the notification device 28 instantly raises the warning sound to warn that the spreader 15 may come into contact with a surface other than the landing target surface 34. In addition, when the spreader 15 lands on the landing target surface 34, the notification device 28 makes a sound imitating the landing sound generated when the spreader 15 lands, and the spreader 15 makes a landing target surface 34. Notify that you have landed on.

図11〜図13に例示するように、上記の制御システム20を利用したクレーン10の制御方法は、オペレータが遠隔操作によりスプレッダ15を指示された着床ターゲット面34に着床させるときに行われる方法である。具体的に、この制御方法は、上層画像33、中層画像38、及び下層画像32のそれぞれを互いに非同期で表示装置22に積層表示させて、上層画像33及び中層画像38の透過背景33a、38aから下層画像32を透過させる方法である。なお、図11及び図12はデータの流れを例示するフロー図であり、図13は経過時間t4で表示された各画像の生成工程のタイミングを例示している。 As illustrated in FIGS. 11 to 13, the control method of the crane 10 using the control system 20 is performed when the operator remotely controls the spreader 15 to land on the designated landing target surface 34. The method. Specifically, in this control method, the upper layer image 33, the middle layer image 38, and the lower layer image 32 are laminated and displayed on the display device 22 asynchronously with each other, and the transparent backgrounds 33a and 38a of the upper layer image 33 and the middle layer image 38 are displayed. This is a method of transmitting the lower layer image 32. 11 and 12 are flow charts exemplifying the flow of data, and FIG. 13 exemplifies the timing of each image generation process displayed at the elapsed time t4.

この制御方法は、オペレータが操作装置27によりスプレッダ15を着床させる操作が行われるとスタートし、その操作が完了するまで周期的に繰り返し行われる方法である。なお、図中の二重線は並列処理を示すものとする。本明細書において、並列処理は、異なる装置や機能要素で互いに並列的に行われる処理であり、それぞれの処理時間が同期しない場合も含むものとする。 This control method is a method in which the operator starts when the operation of landing the spreader 15 by the operation device 27 is performed, and is periodically repeated until the operation is completed. The double line in the figure indicates parallel processing. In the present specification, the parallel processing is a processing performed in parallel with each other by different devices and functional elements, and includes a case where the processing times are not synchronized with each other.

オペレータが操作装置27によりスプレッダ15を着床させる操作が行われると、カメラ21がスプレッダ15及び着床ターゲット面34を含む無処理画像35を撮像周期T1ごとに逐次撮像する(S110)。このステップS110に並列して、位置取得装置23、24が測定値(H1、H2、L1、θ2、θ5)をサンプリング周期T2ごとに逐次取得する(S120)。 When the operator performs an operation of landing the spreader 15 by the operating device 27, the camera 21 sequentially captures the unprocessed image 35 including the spreader 15 and the landing target surface 34 in each imaging cycle T1 (S110). In parallel with this step S110, the position acquisition devices 23 and 24 sequentially acquire the measured values (H1, H2, L1, θ2, θ5) for each sampling cycle T2 (S120).

カメラ21が無処理画像35を撮像すると、制御装置25の第一画像作成部40が、無処理画像35に対して画像処理のうちの画像補正を施して、下層画像32を作成する(S210)。次いで、第一画像作成部40が、下層画像32に対して画像処理のうちの画像編集を施して、中層画像38を作成する(S220)。 When the camera 21 captures the unprocessed image 35, the first image creation unit 40 of the control device 25 performs the image correction of the image processing on the unprocessed image 35 to create the lower layer image 32 (S210). .. Next, the first image creation unit 40 performs image editing in the image processing on the lower layer image 32 to create the middle layer image 38 (S220).

位置取得装置23、24が測定値を取得すると、第二画像作成部41の算出部44が、測定値と設定値とに基づいて、着床ターゲットなす角θ3、予想着床なす角θ4、高さH7、距離L5、スキュー角度θ5、距離(L5+L6)、及び距離(L7+L8)を算出する(S310)。 When the position acquisition devices 23 and 24 acquire the measured values, the calculation unit 44 of the second image creation unit 41 determines the landing target angle θ3, the expected landing angle θ4, and the height based on the measured value and the set value. H7, distance L5, skew angle θ5, distance (L5 + L6), and distance (L7 + L8) are calculated (S310).

次いで、特定表示作成部45が、着床ターゲットなす角θ3と予想着床なす角θ4とカメラ21の画素数に基づいて、着床ターゲット面中心点C3と予想着床中心点C4との上層画像33における二次元座標を算出し、着床ターゲット面中心点C3を示す着床ターゲット印33bと予想着床中心点C4を示す予想着床印33cとを作成する(S320)。このステップに並列して、相対位置表示作成部46が、高さH7、距離L5、及びスキュー角度θ5に基づいて、高さ表示33d、距離表示33e、及び角度表示33fを作成する(S330)。さらに、これらのステップに並列して、警告表示作成部47が、スプレッダ15と着床ターゲット面34以外との接触の可能性の有無を判定する(S340)。このステップでは、算出部44で算出された距離(L5+L6)が距離(L7+L8)以上になった場合に、スプレッダ15と着床ターゲット面34以外との接触の可能性が有ると判定し、距離(L5+L6)が距離(L7+L8)未満になった場合に、スプレッダ15と着床ターゲット面34以外との接触の可能性が無いと判定する。次いで、接触の可能性が有ると判定すると(S340:YES)、警告表示作成部47が、警告表示33gを作成する(S350)。一方、接触の可能性が無いと判定すると(S340:NO)、警告表示作成部47が警告表示33gを消去する(S360)。このように、各表示が作成されて、上層画像33の作成が完了する。 Next, the specific display creation unit 45 creates an upper layer image of the landing target surface center point C3 and the predicted landing center point C4 based on the landing target angle θ3, the predicted landing angle θ4, and the number of pixels of the camera 21. The two-dimensional coordinates in 33 are calculated, and a landing target mark 33b indicating the landing target surface center point C3 and a predicted landing mark 33c indicating the expected landing center point C4 are created (S320). In parallel with this step, the relative position display creating unit 46 creates the height display 33d, the distance display 33e, and the angle display 33f based on the height H7, the distance L5, and the skew angle θ5 (S330). Further, in parallel with these steps, the warning display creation unit 47 determines whether or not there is a possibility of contact between the spreader 15 and the landing target surface 34 (S340). In this step, when the distance (L5 + L6) calculated by the calculation unit 44 becomes greater than or equal to the distance (L7 + L8), it is determined that there is a possibility of contact between the spreader 15 and the landing target surface 34 other than the distance (L7 + L8). When L5 + L6) is less than the distance (L7 + L8), it is determined that there is no possibility of contact between the spreader 15 and the landing target surface 34. Next, when it is determined that there is a possibility of contact (S340: YES), the warning display creating unit 47 creates a warning display 33g (S350). On the other hand, when it is determined that there is no possibility of contact (S340: NO), the warning display creating unit 47 erases the warning display 33g (S360). In this way, each display is created, and the creation of the upper layer image 33 is completed.

次いで、表示制御部42が、上層画像33、中層画像38、及び下層画像32を積層して積層画像30を作成する(S410)。このとき、表示制御部42は、現時点において各作成部から送られた画像どうしを同期させること無く、順次積層して積層画像30を作成する。次いで、表示制御部42が、作成した積層画像30を表示装置22に表示させると(S420)、スタートへ戻る。 Next, the display control unit 42 stacks the upper layer image 33, the middle layer image 38, and the lower layer image 32 to create the stacked image 30 (S410). At this time, the display control unit 42 creates the laminated image 30 by sequentially laminating the images sent from the respective creating units at the present time without synchronizing the images. Next, when the display control unit 42 displays the created laminated image 30 on the display device 22 (S420), the process returns to the start.

この表示制御部42におけるステップに並列して、報知制御部43が、高さH7、距離L5、及びスキュー角度θ5を報知装置28により報知させる、あるいは、スプレッダ15と着床ターゲット面34以外との接触の可能性が有り、その接触を回避させる警告を報知装置28により報知させて(S510)、スタートへ戻る。 In parallel with the steps in the display control unit 42, the notification control unit 43 notifies the height H7, the distance L5, and the skew angle θ5 by the notification device 28, or the spreader 15 and the landing target surface 34 other than the spreader 15 and the landing target surface 34. There is a possibility of contact, a warning for avoiding the contact is notified by the notification device 28 (S510), and the process returns to the start.

図7に例示するように、積層画像30では、着床ターゲット印33bと予想着床印33cとが離間しており、平面視でスプレッダ15と着床ターゲット面34との位置が合っていない状態である。積層画像30において、その中心として光軸A1を示す原点(0、0)に対して、着床ターゲット印33bの二次元座標は(Lθ3、0)となり、予想着床印33cの二次元座標は(Lθ4、0)となる。このとき、予想着床なす角θ4は着床ターゲットなす角θ3よりも大きく、予想着床印33cは着床ターゲット印33bよりもx2方向海側に表示される。 As illustrated in FIG. 7, in the laminated image 30, the landing target mark 33b and the expected landing mark 33c are separated from each other, and the spreader 15 and the landing target surface 34 are not aligned in a plan view. Is. In the laminated image 30, the two-dimensional coordinates of the landing target mark 33b are (Lθ3, 0) with respect to the origin (0, 0) indicating the optical axis A1 as the center thereof, and the two-dimensional coordinates of the expected landing mark 33c are It becomes (Lθ4, 0). At this time, the expected landing angle θ4 is larger than the landing target angle θ3, and the expected landing mark 33c is displayed on the sea side in the x2 direction from the landing target mark 33b.

また、この積層画像30では、高さ表示33dにより、スプレッダ15が着床ターゲット面34に着床するまでの距離として高さH7が表示され、着床までに多少時間を要することが分かる。また、距離表示33e、及び角度表示33fにより、スプレッダ15と着床ターゲット面34との相対位置関係がずれていることが表示される。加えて、この積層画像30では、警告表示33gにより、スプレッダ15が着床ターゲット面34以外に接触する可能性を示す警告が、スプレッダ15を移動させる方向を示す図形で表示される。 Further, in the laminated image 30, the height display 33d displays the height H7 as the distance until the spreader 15 lands on the landing target surface 34, and it can be seen that it takes some time to land. Further, the distance display 33e and the angle display 33f indicate that the relative positional relationship between the spreader 15 and the landing target surface 34 is deviated. In addition, in the laminated image 30, the warning display 33g displays a warning indicating the possibility that the spreader 15 may come into contact with a surface other than the landing target surface 34 in a graphic indicating the direction in which the spreader 15 is moved.

オペレータは、この積層画像30を見てスプレッダ15を着床させるタイミングでないと判断して、スプレッダ15の位置合わせの操作を行う。具体的に、オペレータは、積層画像30の下層画像32によりスプレッダ15の動きを確認しつつ、トロリ13をx2方向陸側に移動させる、あるいはスプレッダ15と着床ターゲット面34との位置が合うタイミングを図る。 The operator sees the laminated image 30 and determines that it is not the timing to land the spreader 15, and performs the operation of aligning the spreader 15. Specifically, the operator moves the trolley 13 to the land side in the x2 direction while confirming the movement of the spreader 15 by the lower layer image 32 of the laminated image 30, or the timing at which the spreader 15 and the landing target surface 34 are aligned. Aim.

図8に例示するように、積層画像30では、着床ターゲット印33bと予想着床印33cとが重なり合っており、平面視でスプレッダ15と着床ターゲット面34との位置が合っている状態である。積層画像30において、その中心として光軸A1を示す原点(0、0)に対して、着床ターゲット印33bの二次元座標は(Lθ3、0)となり、予想着床印33cの二次元座標も(Lθ3、0)となる。このとき、予想着床なす角θ4は着床ターゲットなす角θ3に等しい。 As illustrated in FIG. 8, in the laminated image 30, the landing target mark 33b and the expected landing mark 33c overlap each other, and the spreader 15 and the landing target surface 34 are aligned in a plan view. be. In the laminated image 30, the two-dimensional coordinates of the landing target mark 33b are (Lθ3, 0) with respect to the origin (0, 0) indicating the optical axis A1 as the center thereof, and the two-dimensional coordinates of the expected landing mark 33c are also It becomes (Lθ3,0). At this time, the expected landing angle θ4 is equal to the landing target angle θ3.

また、この積層画像30では、高さ表示33dにより、スプレッダ15が着床ターゲット面34に着床するまでの距離として高さH7が表示され、着床の直前であることが分かる。また、距離表示33e、及び角度表示33fにより、スプレッダ15と着床ターゲット面34との相対位置関係がずれていないことが表示される。加えて、この積層画像30では、警告表示33gが表示されていないことにより、スプレッダ15が着床ターゲット面34以外に接触する可能性が無いことが表示される。 Further, in the laminated image 30, the height display 33d displays the height H7 as the distance until the spreader 15 lands on the landing target surface 34, and it can be seen that the height H7 is immediately before landing. Further, the distance display 33e and the angle display 33f indicate that the relative positional relationship between the spreader 15 and the landing target surface 34 is not deviated. In addition, in the laminated image 30, since the warning display 33g is not displayed, it is displayed that there is no possibility that the spreader 15 comes into contact with anything other than the landing target surface 34.

オペレータは、この積層画像30を見てスプレッダ15を着床させるタイミングであると判断して、スプレッダ15を着床ターゲット面34に着床させる操作を行う。具体的に、オペレータは、積層画像30の下層画像32によりスプレッダ15の動きを確認しつつ、スプレッダ15を着床ターゲット面34に向けて降ろす。また、オペレータは、スプレッダ15を着床ターゲット面34に向けて降ろす最中に、この積層画像30の拡大画像37によりスプレッダ15の位置合わせを確認しながら、スプレッダ15を着床ターゲット面34に向けて降ろす。 The operator sees the laminated image 30 and determines that it is time to land the spreader 15, and performs an operation of landing the spreader 15 on the landing target surface 34. Specifically, the operator lowers the spreader 15 toward the landing target surface 34 while confirming the movement of the spreader 15 by the lower layer image 32 of the laminated image 30. Further, while the operator lowers the spreader 15 toward the landing target surface 34, the operator directs the spreader 15 toward the landing target surface 34 while confirming the alignment of the spreader 15 with the enlarged image 37 of the laminated image 30. And take it down.

上記の制御システム20によれば、下層画像32と上層画像33とを非同期で積層表示させることで、カメラ21で撮像された下層画像32によりスプレッダ15の操作を確認しつつ、その下層画像32が表示装置22に表示されるまでに遅延が生じても、位置取得装置23、24が取得した測定値に基づいて作成された上層画像33をリアルタイムに近い状態で表示装置22に表示させることができる。これにより、上層画像33に描画された特定できる表示(33b、33c)に従わせてオペレータに吊具を操作させることで、操作のタイミングのずれを解消するには有利になり、スプレッダ15を着床ターゲット面34に着床させたときにスプレッダ15と着床ターゲット面34との位置が合った状態にできる。 According to the above control system 20, by displaying the lower layer image 32 and the upper layer image 33 in an asynchronous manner, the lower layer image 32 captures the operation of the spreader 15 while confirming the operation of the spreader 15 by the lower layer image 32 captured by the camera 21. Even if there is a delay before the image is displayed on the display device 22, the upper layer image 33 created based on the measured values acquired by the position acquisition devices 23 and 24 can be displayed on the display device 22 in a state close to real time. .. As a result, by having the operator operate the hanging tool according to the identifiable display (33b, 33c) drawn on the upper layer image 33, it becomes advantageous to eliminate the deviation of the operation timing, and the spreader 15 is worn. When the floor target surface 34 is landed, the spreader 15 and the landing target surface 34 can be aligned with each other.

つまり、制御システム20によれば、オペレータに対して、スプレッダ15を降ろす操作を行うタイミングを、特定できる表示(33b、33c)により時間的な遅延無く的確に教えることができる。この特定できる表示に従ってスプレッダ15を着床させることで、未熟者でもスプレッダ15と着床ターゲット面34との位置合わせに要する時間の短縮には有利になり、荷役効率を向上することができる。 That is, according to the control system 20, it is possible to accurately teach the operator the timing of performing the operation of lowering the spreader 15 by the identifiable display (33b, 33c) without any time delay. By landing the spreader 15 according to this identifiable display, even an inexperienced person can benefit from shortening the time required for aligning the spreader 15 with the landing target surface 34, and can improve cargo handling efficiency.

例えば、カメラ21で撮像した下層画像32のみに基づいてオペレータがスプレッダ15を操作する場合に、下層画像32においてスプレッダ15を着床ターゲット面34に降ろす最適なタイミングを見極めても、実際のそのタイミングのときのスプレッダ15は別の位置に到達している。つまり、そのような場合に、オペレータは、下層画像32から把握できるスプレッダ15の状況からコンマ数秒先の未来を予測しながら運転をしなければならない。 For example, when the operator operates the spreader 15 based only on the lower layer image 32 captured by the camera 21, even if the optimum timing for lowering the spreader 15 on the landing target surface 34 in the lower layer image 32 is determined, the actual timing is determined. At this time, the spreader 15 has reached another position. That is, in such a case, the operator must drive while predicting the future several seconds ahead from the situation of the spreader 15 that can be grasped from the lower layer image 32.

一方、上記の制御システム20によれば、カメラ21で撮像された下層画像32と測定値に基づいて作成された上層画像33との同期を取らずに、それらを表示装置22に表示させることで、下層画像32の遅延時間T3よりも短い遅延時間T5でスプレッダ15の状況を表示させることができる。これにより、スプレッダ15の未来の状況を予測しながら運転することが不要になり、熟練のオペレータに比して予測の精度が低い未熟なオペレータにスプレッダ15の位置合わせ操作を正確に行わせることができる。 On the other hand, according to the control system 20, the display device 22 displays the lower layer image 32 captured by the camera 21 and the upper layer image 33 created based on the measured values without synchronizing them. The status of the spreader 15 can be displayed with a delay time T5 shorter than the delay time T3 of the lower layer image 32. This eliminates the need to drive while predicting the future situation of the spreader 15, and allows an inexperienced operator whose prediction accuracy is lower than that of a skilled operator to accurately perform the alignment operation of the spreader 15. can.

また、制御システム20は、カメラ21で撮像した下層画像32に遅延が生じてもよいことから、映像をリアルタイム表示可能な装置を用いて映像の表示遅延の時間を小さくする方式に比して、導入コストを削減することが可能になる。 Further, since the control system 20 may cause a delay in the lower layer image 32 captured by the camera 21, the control system 20 is compared with a method of reducing the display delay time of the image by using a device capable of displaying the image in real time. It is possible to reduce the introduction cost.

加えて、制御システム20は、クレーン10の周囲環境(天候、荷役作業時間(夜間など))の影響によりカメラ21で撮像した下層画像32が不鮮明な場合でも、上層画像33によりオペレータにスプレッダ15の状況を正確に伝えることが可能になる。これにより、クレーン10の周囲環境による影響を排除して、遠隔操作によりクレーン10に荷役させることができる。 In addition, the control system 20 provides the operator with the spreader 15 by the upper layer image 33 even when the lower layer image 32 captured by the camera 21 is unclear due to the influence of the surrounding environment (weather, cargo handling work time (nighttime, etc.)) of the crane 10. It becomes possible to accurately convey the situation. As a result, the influence of the surrounding environment of the crane 10 can be eliminated, and the crane 10 can be loaded and unloaded by remote control.

なお、スプレッダ15と着床ターゲット面34とが平面視で位置が合った状態になったことを特定できる表示としては、着床ターゲット印33b及び予想着床印33cの重なり具合の他に、文字や記号をスプレッダ15と着床ターゲット面34とが平面視で位置が合った状態になった瞬間に表示させてもよい。また、報知装置28により、スプレッダ15と着床ターゲット面34とが平面視で位置が合った状態になったことを特定できる音や光を発するようにしてもよい。 In addition to the overlapping condition of the landing target mark 33b and the expected landing mark 33c, characters can be specified as a display that can identify that the spreader 15 and the landing target surface 34 are in the aligned state in a plan view. Or symbols may be displayed at the moment when the spreader 15 and the landing target surface 34 are aligned in a plan view. Further, the notification device 28 may emit a sound or light that can identify that the spreader 15 and the landing target surface 34 are in the aligned state in a plan view.

制御システム20は、着床ターゲット印33b及び予想着床印33cの重なり具合を、スプレッダ15と着床ターゲット面34とが平面視で位置が合っていない状態から位置が合った状態までの経時的な変化として積層画像30により表示させる。これにより、経時的に変化する着床ターゲット印33b及び予想着床印33cの重なり具合から、スプレッダ15を降ろす操作を行うタイミングを図ることができるので、スプレッダ15と着床ターゲット面34との平面視での位置合わせに要する時間の短縮には有利になる。 The control system 20 determines the degree of overlap of the landing target mark 33b and the expected landing mark 33c over time from a state in which the spreader 15 and the landing target surface 34 are not aligned in a plan view to a state in which they are aligned. It is displayed by the laminated image 30 as a change. As a result, the timing for lowering the spreader 15 can be determined from the overlapping condition of the landing target mark 33b and the expected landing mark 33c, which change with time. Therefore, the plane surface between the spreader 15 and the landing target surface 34 can be determined. This is advantageous in reducing the time required for visual alignment.

特に、制御システム20は、スプレッダ15が振り子のように周期的に揺れた場合でも、スプレッダ15と着床ターゲット面34との平面視での位置が合ったときに、スプレッダ15を降ろす操作を行うことが可能になる。これにより、スプレッダ15の振れが収まるまで待機する時間を短縮するには有利になる。 In particular, the control system 20 performs an operation of lowering the spreader 15 when the spreader 15 and the landing target surface 34 are aligned in a plan view even when the spreader 15 swings periodically like a pendulum. Will be possible. This is advantageous in reducing the waiting time until the runout of the spreader 15 is settled.

なお、スプレッダ15の振れの周期(振幅)を計測して、予想着床中心点C4をその周期から予測される予測点としてもよい。クレーン10を遠隔操作する場合に、操作装置27の操作に対する各装置が駆動するまでの時間遅れが生じるときがある。この時間遅れにより、着床ターゲット印33b及び予想着床印33cの重なり具合から、スプレッダ15を降ろす操作を行うタイミングを図っても、実際にスプレッダ15が着床ターゲット面34に着床したときに位置が合わないおそれがある。そこで、予想着床中心点C4として操作の時間遅れを考慮した予測点を用いることで、各種の時間遅れによる位置ずれを解消するには有利になる。 The runout cycle (amplitude) of the spreader 15 may be measured, and the predicted implantation center point C4 may be used as the predicted point predicted from that cycle. When the crane 10 is remotely controlled, there may be a time delay until each device is driven with respect to the operation of the operating device 27. Due to this time delay, when the spreader 15 actually lands on the landing target surface 34 even if the timing for lowering the spreader 15 is planned based on the overlapping condition of the landing target mark 33b and the expected landing mark 33c. The position may not match. Therefore, by using a predicted point in consideration of the operation time delay as the predicted landing center point C4, it is advantageous to eliminate the positional deviation due to various time delays.

制御システム20は、着床ターゲット印33b及び予想着床印33cに加えて、上層画像33にスプレッダ15の中心であるスプレッダ中心点C2を示すスプレッダ印を描画してもよい。スプレッダ中心点C2の上層画像33における二次元座標は、着床ターゲット面中心点C3や予想着床中心点C4と同様に、光軸A1に対するなす角に基づいて算出することが可能である。なお、スプレッダ15に直接、スプレッダ印の代わりとなる目印を設置してもよい。このように、着床ターゲット印33b及び予想着床印33cに加えて、スプレッダ中心点C2を示す表示をすることで、目印が増え、スプレッダ15と着床ターゲット面34との位置関係を把握するには有利になる。 In addition to the landing target mark 33b and the expected landing mark 33c, the control system 20 may draw a spreader mark indicating the spreader center point C2, which is the center of the spreader 15, on the upper layer image 33. The two-dimensional coordinates in the upper image 33 of the spreader center point C2 can be calculated based on the angle formed with respect to the optical axis A1 as in the case of the landing target surface center point C3 and the expected landing center point C4. In addition, a mark instead of the spreader mark may be provided directly on the spreader 15. In this way, by displaying the spreader center point C2 in addition to the landing target mark 33b and the expected landing mark 33c, the number of marks increases and the positional relationship between the spreader 15 and the landing target surface 34 can be grasped. Will be advantageous to.

制御システム20は、クレーン10を遠隔操作するシステムであり、カメラ21が撮像した下層画像32や中層画像38で運転室に搭乗したオペレータの視界を再現している。それ故、カメラ21のカメラレンズ21aが斜め下に向けられており、それらの画像のみでスプレッダ15の数十m下方の着床ターゲット面34に対して位置が合った状態を見出すには高度な技術を要する。そこで、制御システム20では、着床ターゲット面中心点C3及び予想着床中心点C4を示す着床ターゲット印33b及び予想着床印33cが描画された上層画像33を作成する。これにより、スプレッダ15と着床ターゲット面34との位置関係を把握するには有利になり、未熟者でも熟練者と同等に高精度な位置合わせを行うことが可能になる。 The control system 20 is a system for remotely controlling the crane 10, and reproduces the view of the operator in the driver's cab with the lower layer image 32 and the middle layer image 38 captured by the camera 21. Therefore, the camera lens 21a of the camera 21 is directed diagonally downward, and it is advanced to find a state in which the camera lens 21a is aligned with the landing target surface 34 several tens of meters below the spreader 15 only by those images. Requires skill. Therefore, the control system 20 creates an upper layer image 33 on which the landing target mark 33b and the expected landing mark 33c indicating the landing target surface center point C3 and the expected landing center point C4 are drawn. This is advantageous for grasping the positional relationship between the spreader 15 and the landing target surface 34, and even an inexperienced person can perform positioning with the same high accuracy as a skilled person.

上述したとおりカメラ21のカメラレンズ21aが斜め下に向けられており、積層画像30の二次元座標を算出するには、このカメラ21の光軸A1に対する位置関係を把握する必要がある。そこで、制御システム20は、着床なす角θ3及び予想着床なす角θ4に基づいて、着床ターゲット面中心点C3及び予想着床中心点C4の積層画像30における二次元座標を算出している。これにより、積層画像30における着床ターゲット面中心点C3及び予想着床中心点C4の二次元座標を高精度に算出するには有利になる。 As described above, the camera lens 21a of the camera 21 is directed obliquely downward, and in order to calculate the two-dimensional coordinates of the stacked image 30, it is necessary to grasp the positional relationship of the camera 21 with respect to the optical axis A1. Therefore, the control system 20 calculates the two-dimensional coordinates of the landing target surface center point C3 and the expected landing center point C4 in the laminated image 30 based on the landing angle θ3 and the expected landing angle θ4. .. This is advantageous for calculating the two-dimensional coordinates of the landing target surface center point C3 and the expected landing center point C4 in the laminated image 30 with high accuracy.

制御システム20は、位置取得装置23、24によりサンプリング周期T2ごとに測定値H1、H2、L1、θ2を測定し、上層画像33における着床ターゲット面中心点C3及び予想着床中心点C4の二次元座標を算出する。それ故、波による船舶の揺れなどを起因として着床ターゲット面34の位置やスプレッダ15の位置が変化しても、その変化に合わせて、上層画像33における二次元座標を算出することができる。これにより、高精度な位置合わせには有利になる。 The control system 20 measures the measured values H1, H2, L1, and θ2 for each sampling cycle T2 by the position acquisition devices 23 and 24, and the landing target surface center point C3 and the expected landing center point C4 in the upper layer image 33. Calculate the dimensional coordinates. Therefore, even if the position of the landing target surface 34 or the position of the spreader 15 changes due to the shaking of the ship due to the waves, the two-dimensional coordinates in the upper layer image 33 can be calculated according to the changes. This is advantageous for highly accurate alignment.

制御システム20は、上層画像33に、スプレッダ15及び着床ターゲット面34の相対位置関係に関する表示が図形、数値、目盛りとして描画することで、オペレータにスプレッダ15の現時点の状況をより詳しく把握させることができる。例えば、上層画像33において着床ターゲット印33b及び予想着床印33cが一致した場合でも、スプレッダ15が着床ターゲット面34に着床するまでの高さH7が高いときがある。また、スプレッダ15に生じるスキュー振れにより、平面視でスプレッダ15の位置が着床ターゲット面34に対して鉛直軸回りにずれるときがある。このようなとき、オペレータの操作によりスプレッダ15を降ろしても、着床したときに平面視でスプレッダ15が着床ターゲット面34に対してずれるおそれがある。そこで、スプレッダ15及び着床ターゲット面34の相対位置関係に関する表示により、スプレッダ15の現在位置や姿勢をオペレータに示すことで、高精度な操作タイミングを図ることができる。例えば、スプレッダ15を降ろす速度を遅くするタイミングも教えることが可能になり、スプレッダ15が着床ターゲット面34に着床したときの衝撃を低減するには有利になる。 The control system 20 allows the operator to grasp the current situation of the spreader 15 in more detail by drawing the display regarding the relative positional relationship between the spreader 15 and the landing target surface 34 as figures, numerical values, and scales on the upper layer image 33. Can be done. For example, even when the landing target mark 33b and the expected landing mark 33c match in the upper layer image 33, the height H7 until the spreader 15 lands on the landing target surface 34 may be high. Further, due to the skew runout generated in the spreader 15, the position of the spreader 15 may shift about the vertical axis with respect to the landing target surface 34 in a plan view. In such a case, even if the spreader 15 is lowered by the operation of the operator, the spreader 15 may shift with respect to the landing target surface 34 in a plan view when landing. Therefore, by indicating the current position and posture of the spreader 15 to the operator by displaying the relative positional relationship between the spreader 15 and the landing target surface 34, it is possible to achieve highly accurate operation timing. For example, it becomes possible to teach the timing of slowing down the speed at which the spreader 15 is lowered, which is advantageous for reducing the impact when the spreader 15 lands on the landing target surface 34.

制御システム20は、上層画像33に、スプレッダ15と着床ターゲット面34以外との接触を回避させる警告表示33gを表示させることで、その接触を回避する操作をオペレータに教えることができる。例えば、上層画像33において、警告表示33gが表示されると、オペレータは、現状のままスプレッダ15を降ろすとスプレッダ15が着床ターゲット面34の周囲に存在するコンテナ31と接触する可能性があることを知ることができる。また、オペレータは、その警告表示33gにより、その接触を回避する操作も知ることができる。このように、オペレータは事前にスプレッダ15と着床ターゲット面34以外との接触の可能性を予測することで、遠隔操作における安全性を向上することができる。 The control system 20 can teach the operator an operation to avoid the contact by displaying the warning display 33g for avoiding the contact between the spreader 15 and the landing target surface 34 on the upper layer image 33. For example, when the warning display 33g is displayed in the upper layer image 33, if the operator lowers the spreader 15 as it is, the spreader 15 may come into contact with the container 31 existing around the landing target surface 34. Can be known. The operator can also know the operation of avoiding the contact by the warning display 33g. In this way, the operator can improve the safety in remote control by predicting the possibility of contact between the spreader 15 and the landing target surface 34 in advance.

クレーン10は、一方向に延在する桁部と、この桁部に支持されてこの桁部の延在方向に移動するトロリと、このトロリからワイヤにより吊り下げられたスプレッダと、を備えていればよく、船舶に対してコンテナ31の荷役をするクレーンに限定されない。クレーンとしては、コンテナターミナルにおいて、外来シャーシや蔵置レーンに対してコンテナの荷役をする門型クレーンや天井クレーンも例示される。 The crane 10 includes a girder portion extending in one direction, a trolley supported by the girder portion and moving in the extending direction of the girder portion, and a spreader suspended from the trolley by a wire. It is not limited to the crane that handles the cargo of the container 31 for the ship. Examples of the crane include a gantry crane and an overhead crane that handle the cargo of the container with respect to the outpatient chassis and the storage lane at the container terminal.

既述した実施形態では、図7及び図8において、スプレッダ中心点C2、着床ターゲット面中心点C3、及び予想着床中心点C4の平面位置(x1座標、y1座標)のうちのy1座標が略一致しているものとしたが、y1座標もx1座標と同様に逐次算出してもよい。走行装置16によりクレーン10をy1方向に移動する際に、正面視における光軸A1に対する着床ターゲットなす角や予想着床なす角を算出して、積層画像30におけるy2座標の位置合わせを行うことも可能である。 In the above-described embodiment, in FIGS. 7 and 8, the y1 coordinate of the plane positions (x1 coordinate, y1 coordinate) of the spreader center point C2, the landing target surface center point C3, and the expected landing center point C4 is Although it is assumed that they are substantially the same, the y1 coordinate may be calculated sequentially in the same manner as the x1 coordinate. When the traveling device 16 moves the crane 10 in the y1 direction, the angle formed by the landing target and the expected landing angle with respect to the optical axis A1 in the front view are calculated, and the y2 coordinates in the laminated image 30 are aligned. Is also possible.

同様に、スプレッダ15と着床ターゲット面34以外との接触の回避を促す警告表示33gも、積層画像30のおけるy2方向への移動を示す図形を用いてもよい。なお、警告表示33gを表示させるか否かの判定(S340)は、上記の判定方法に限定されない。例えば、制御装置25に入力されたコンテナ31の配列情報により、着床ターゲット面34の周囲のコンテナ31が着床ターゲット面34よりも低い場合に、接触の可能性が無いと判定してもよい。 Similarly, the warning display 33g for urging the avoidance of contact between the spreader 15 and the landing target surface 34 other than the landing target surface 34 may also use a figure indicating movement in the y2 direction in the laminated image 30. The determination (S340) as to whether or not to display the warning display 33g is not limited to the above determination method. For example, based on the arrangement information of the containers 31 input to the control device 25, if the container 31 around the landing target surface 34 is lower than the landing target surface 34, it may be determined that there is no possibility of contact. ..

既述した制御システム20は、クレーン10を遠隔操作するものである。この制御システム20を応用して、例えば、予想着床中心点C4と着床ターゲット面中心点C3との重なり具合を偏差として、その偏差に基づいて、制御装置25により、トロリ13やスプレッダ15を自動操作することで、クレーン10の操作を自動化することも可能である。 The control system 20 described above remotely controls the crane 10. By applying this control system 20, for example, the degree of overlap between the expected landing center point C4 and the landing target surface center point C3 is taken as a deviation, and based on the deviation, the trolley 13 and the spreader 15 are set by the control device 25. It is also possible to automate the operation of the crane 10 by the automatic operation.

また、既述した制御システム20としては、カメラ21が無処理画像35を撮像してから下層画像32が表示装置22に表示されるまでの時間よりも、位置取得装置23、24が測定値を取得してから上層画像33が表示装置22に表示されるまでの時間が早いシステムが例示される。一方で、制御システム20としては、カメラ21が撮像してから略遅延時間が無い状態で下層画像32を表示装置22に表示させるシステムにも適用可能である。そのようなシステムでも、上層画像33によりスプレッダ15の状況を図形、数値、目盛りで視覚的に容易に把握可能になることで、遠隔操作に要する作業時間の短縮や安全性の向上には有利になる。
既述した制御システム20では、下層画像32及び中層画像38を非同期で表示させたが、上層画像33がリアルタイムに近い状態で表示されればよく、下層画像32及び中層画像38を同期させて表示させてもよい。
Further, in the control system 20 described above, the position acquisition devices 23 and 24 measure the measured values rather than the time from when the camera 21 captures the unprocessed image 35 until the lower layer image 32 is displayed on the display device 22. An example is a system in which the time from acquisition to the display of the upper layer image 33 on the display device 22 is short. On the other hand, the control system 20 can also be applied to a system in which the lower layer image 32 is displayed on the display device 22 in a state where there is almost no delay time after the camera 21 takes an image. Even in such a system, the upper layer image 33 makes it possible to visually grasp the situation of the spreader 15 visually with figures, numerical values, and scales, which is advantageous for shortening the work time required for remote control and improving safety. Become.
In the control system 20 described above, the lower layer image 32 and the middle layer image 38 are displayed asynchronously, but the upper layer image 33 may be displayed in a state close to real time, and the lower layer image 32 and the middle layer image 38 are displayed in synchronization. You may let me.

10 クレーン
11、12 桁部
13 トロリ
14 ワイヤ
15 スプレッダ
20 制御システム
21 カメラ
22 表示装置
23、24 位置取得装置
25 制御装置
30 積層画像
32 下層画像
33 上層画像
34 着床ターゲット面
10 Crane 11, 12 Girder 13 Trolley 14 Wire 15 Spreader 20 Control system 21 Camera 22 Display device 23, 24 Position acquisition device 25 Control device 30 Laminated image 32 Lower layer image 33 Upper layer image 34 Implantation target surface

Claims (10)

一方向に延在する桁部と、この桁部に支持されてこの桁部の延在方向に移動するトロリと、このトロリからワイヤにより吊り下げられた吊具と、を備えるクレーンの制御システムにおいて、
前記トロリに設置されて前記吊具及びその下方のその吊具が着床する着床ターゲット面を含む画像を逐次撮像するカメラと、このカメラが撮像したその画像を逐次表示する表示装置と、前記吊具及び前記着床ターゲット面のそれぞれの平面位置を取得する位置取得装置と、前記カメラ、前記表示装置、及び前記位置取得装置に接続された制御装置とを有して、
前記位置取得装置が取得した前記平面位置に基づいて、前記制御装置により、前記吊具と前記着床ターゲット面とが平面視で位置が合った状態になったことを特定できる表示が透過背景に描画された上層画像を作成し、作成したその上層画像と前記カメラが撮像した前記画像とを互いに非同期で前記表示装置に積層表示させて、前記上層画像の前記透過背景から前記画像を透過させる構成にし
前記特定できる表示は、平面視で前記吊具の中心となる吊具中心点が前記着床ターゲット面を含む水平面に鉛直投影された予想着床中心点を示す予想着床印と、平面視で前記着床ターゲット面の中心となる着床ターゲット面中心点を示す着床ターゲット印と、から成ることを特徴とするクレーンの制御システム。
In a crane control system including a girder extending in one direction, a trolley supported by the girder and moving in the extending direction of the girder, and a hanger suspended from the trolley by a wire. ,
A camera installed on the trolley and sequentially capturing an image including a landing target surface on which the hanging tool and the hanging tool below the hanging tool lands, a display device for sequentially displaying the image captured by the camera, and the above. It has a position acquisition device for acquiring the plane positions of the hanger and the landing target surface, and a control device connected to the camera, the display device, and the position acquisition device.
Based on the plane position acquired by the position acquisition device, the control device displays a display on the transparent background that can identify that the hanger and the landing target surface are in a state of being aligned in a plan view. A configuration in which a drawn upper layer image is created, the created upper layer image and the image captured by the camera are superimposed and displayed on the display device asynchronously with each other, and the image is transmitted from the transparent background of the upper layer image. to,
The identifiable display includes a predicted landing mark indicating a predicted landing center point in which the center point of the hanging tool, which is the center of the hanging tool, is vertically projected onto a horizontal plane including the landing target surface in a plan view, and a plan view. A crane control system comprising a landing target mark indicating a landing target surface center point, which is the center of the landing target surface, and a landing target mark.
一方向に延在する桁部と、この桁部に支持されてこの桁部の延在方向に移動するトロリと、このトロリからワイヤにより吊り下げられた吊具と、を備えるクレーンの制御システムにおいて、
前記トロリに設置されて前記吊具及びその下方のその吊具が着床する着床ターゲット面を含む画像を逐次撮像するカメラと、このカメラが撮像したその画像を逐次表示する表示装置と、前記吊具及び前記着床ターゲット面のそれぞれの平面位置を取得する位置取得装置と、前記カメラ、前記表示装置、及び前記位置取得装置に接続された制御装置とを有して、
前記位置取得装置が取得した前記平面位置に基づいて、前記制御装置により、前記吊具と前記着床ターゲット面とが平面視で位置が合った状態になったことを特定できる表示が透過背景に描画された上層画像を作成し、作成したその上層画像と前記カメラが撮像した前記画像とを互いに非同期で前記表示装置に積層表示させて、前記上層画像の前記透過背景から前記画像を透過させる構成にし
さらに、前記画像に基づいて、前記制御装置により、その画像の一部を拡大した拡大画像を作成し、作成したその拡大画像が前記上層画像及び前記画像と共に前記表示装置に積層表示される構成にしたことを特徴とするクレーンの制御システム。
In a crane control system including a girder extending in one direction, a trolley supported by the girder and moving in the extending direction of the girder, and a hanger suspended from the trolley by a wire. ,
A camera installed on the trolley and sequentially capturing an image including a landing target surface on which the hanging tool and the hanging tool below the hanging tool lands, a display device for sequentially displaying the image captured by the camera, and the above. It has a position acquisition device for acquiring the plane positions of the hanger and the landing target surface, and a control device connected to the camera, the display device, and the position acquisition device.
Based on the plane position acquired by the position acquisition device, the control device displays a display on the transparent background that can identify that the hanger and the landing target surface are in a state of being aligned in a plan view. A configuration in which a drawn upper layer image is created, the created upper layer image and the image captured by the camera are superimposed and displayed on the display device asynchronously with each other, and the image is transmitted from the transparent background of the upper layer image. to,
Further, based on the image, the control device creates an enlarged image obtained by enlarging a part of the image, and the created enlarged image is superimposed and displayed on the display device together with the upper layer image and the image. A crane control system characterized by the fact that it has been done.
前記拡大画像は、前記着床ターゲット面の四隅のそれぞれを拡大した画像である請求項に記載のレーンの制御システム。 The lane control system according to claim 2 , wherein the enlarged image is an enlarged image of each of the four corners of the landing target surface. 前記カメラが前記画像を撮像してからその画像が前記表示装置に表示されるまでの時間よりも、前記位置取得装置が前記平面位置を取得してからその平面位置に基づいて作成された前記上層画像が前記表示装置に表示されるまでの時間が早い請求項1〜3のいずれか1項に記載のクレーンの制御システム。 The upper layer created based on the plane position after the position acquisition device acquires the plane position, rather than the time from when the camera captures the image until the image is displayed on the display device. The crane control system according to any one of claims 1 to 3, wherein it takes a short time for an image to be displayed on the display device. 前記位置取得装置が、前記吊具及び前記着床ターゲット面の平面位置に高さ位置を加えた三次元位置を取得可能に構成されて、
前記位置取得装置が取得した前記三次元位置に基づいて、前記制御装置により、前記吊具及び前記着床ターゲット面の相対位置関係に関する表示が前記上層画像に描画される構成にした請求項1〜4のいずれか1項に記載のクレーンの制御システム。
The position acquisition device is configured to be capable of acquiring a three-dimensional position obtained by adding a height position to the plane position of the hanger and the landing target surface.
Claims 1 to 5 in which a display relating to the relative positional relationship between the crane and the landing target surface is drawn on the upper layer image by the control device based on the three-dimensional position acquired by the position acquisition device. The crane control system according to any one of 4.
前記制御装置に、前記着床ターゲット面の周囲の状況が予め設定されて、
前記位置取得装置が取得した前記三次元位置及び設定されたその着床ターゲット面の周囲の状況に基づいて、前記制御装置により、前記吊具と前記着床ターゲット面以外との接触を回避させる警告表示が前記上層画像に描画される構成にした請求項に記載のクレーンの制御システム。
The condition around the landing target surface is preset in the control device, and the condition is set in advance.
A warning that the control device avoids contact between the hanging tool and other than the landing target surface based on the three-dimensional position acquired by the position acquisition device and the set surrounding conditions of the landing target surface. The crane control system according to claim 5 , wherein the display is drawn on the upper layer image.
前記制御装置に接続されて音又は光を発する報知装置を備えて、
前記制御装置により、前記吊具と前記着床ターゲット面以外との接触を回避させる警告を前記報知装置にせさせる構成にした請求項に記載のクレーンの制御システム。
A notification device that is connected to the control device and emits sound or light is provided.
The control system for a crane according to claim 6 , wherein the control device causes the notification device to give a warning to avoid contact between the hanger and a surface other than the landing target surface.
前記表示装置に積層表示された積層画像は、前記画像がその表示装置の表示領域の全域に表示され、その画像の上層に積層表示された前記特定できる表示が前記表示領域の中央部に配置されて、その特定できる表示以外の表示、が前記表示領域の外縁部に配置された画像である請求項1〜のいずれか1項に記載のクレーンの制御システム。 In the laminated image displayed in a laminated manner on the display device, the image is displayed in the entire display area of the display device, and the identifiable display displayed in a laminated manner on the upper layer of the image is arranged in the central portion of the display area. The crane control system according to any one of claims 1 to 7 , wherein the display other than the identifiable display is an image arranged on the outer edge of the display area. 一方向に延在する桁部に支持されてこの桁部の延在方向に走行するトロリからワイヤにより吊り下げられた吊具を降ろして、その吊具の下端又はその吊具が掴んだ吊り荷の下端を着床ターゲット面に着床させるクレーンの制御方法において、
前記トロリに設置されたカメラにより前記吊具及びその下方の前記吊具が着床する着床ターゲット面を含む画像を逐次撮像すると共に、位置取得装置により前記吊具及び前記着床ターゲット面のそれぞれの平面位置を逐次取得し、
制御装置により、前記カメラが撮像した前記画像と、取得した前記平面位置に基づいて前記吊具と前記着床ターゲット面とが平面視で位置が合った状態になったことを特定できる表示として、平面視で前記吊具の中心となる吊具中心点が前記着床ターゲット面を含む水平面に鉛直投影された予想着床中心点を示す予想着床印と、平面視で前記着床ターゲット面の中心となる着床ターゲット面中心点を示す着床ターゲット印と、から成る表示を透過背景に描画して作成した上層画像とを、互いに非同期で表示装置に積層表示させて、前記上層画像の前記透過背景から前記画像を透過させることを特徴とするクレーンの制御方法。
A crane suspended by a wire is lowered from a trolley that is supported by a girder extending in one direction and travels in the extending direction of the girder, and the lower end of the crane or a suspended load grasped by the crane. In the control method of the crane that makes the lower end of the landing on the landing target surface
The camera installed on the trolley sequentially captures images including the hanger and the landing target surface on which the hanger lands, and the position acquisition device captures the hanger and the landing target surface, respectively. Sequentially acquire the plane position of
As a display that can identify that the image captured by the camera and the landing target surface of the hanger and the landing target surface are aligned with each other in a plan view based on the acquired plane position by the control device . The expected landing mark indicating the expected landing center point where the center point of the hanger, which is the center of the hanger in plan view, is vertically projected onto the horizontal plane including the landing target surface, and the landing target surface in plan view. The landing target mark indicating the center point of the central landing target surface and the upper layer image created by drawing the display composed of the display on the transparent background are laminated and displayed on the display device asynchronously with each other, and the above-mentioned upper layer image is described. A method for controlling a crane, which comprises transmitting the image from a transparent background.
一方向に延在する桁部に支持されてこの桁部の延在方向に走行するトロリからワイヤにより吊り下げられた吊具を降ろして、その吊具の下端又はその吊具が掴んだ吊り荷の下端を着床ターゲット面に着床させるクレーンの制御方法において、
前記トロリに設置されたカメラにより前記吊具及びその下方の前記吊具が着床する着床ターゲット面を含む画像を逐次撮像すると共に、位置取得装置により前記吊具及び前記着床ターゲット面のそれぞれの平面位置を逐次取得し、
制御装置により、前記カメラが撮像した前記画像と、取得した前記平面位置に基づいて前記吊具と前記着床ターゲット面とが平面視で位置が合った状態になったことを特定できる表示を透過背景に描画して作成した上層画像とを、互いに非同期で表示装置に積層表示させて、前記上層画像の前記透過背景から前記画像を透過させ、
さらに、前記制御装置により、前記画像に基づいて、その画像の一部を拡大した拡大画像を作成し、作成したその拡大画像を前記上層画像及び前記画像と共に前記表示装置に積層表示させることを特徴とするクレーンの制御方法。
A crane suspended by a wire is lowered from a trolley that is supported by a girder extending in one direction and travels in the extending direction of the girder, and the lower end of the crane or a suspended load grasped by the crane. In the control method of the crane that makes the lower end of the landing on the landing target surface
The camera installed on the trolley sequentially captures images including the hanger and the landing target surface on which the hanger lands, and the position acquisition device captures the hanger and the landing target surface, respectively. Sequentially acquire the plane position of
The control device transmits a display that can identify that the image captured by the camera and the landing target surface are aligned with each other in a plan view based on the acquired plane position. The upper layer image created by drawing on the background is superimposed and displayed on the display device asynchronously with each other, and the image is transmitted from the transparent background of the upper layer image.
Further, the control device is characterized in that a magnified image obtained by enlarging a part of the image is created based on the image, and the created magnified image is superimposed and displayed on the display device together with the upper layer image and the image. Crane control method.
JP2018103114A 2018-05-30 2018-05-30 Crane control system and control method Active JP6919817B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018103114A JP6919817B2 (en) 2018-05-30 2018-05-30 Crane control system and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018103114A JP6919817B2 (en) 2018-05-30 2018-05-30 Crane control system and control method

Publications (2)

Publication Number Publication Date
JP2019206424A JP2019206424A (en) 2019-12-05
JP6919817B2 true JP6919817B2 (en) 2021-08-18

Family

ID=68767136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018103114A Active JP6919817B2 (en) 2018-05-30 2018-05-30 Crane control system and control method

Country Status (1)

Country Link
JP (1) JP6919817B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114291734B (en) * 2021-12-30 2023-04-07 咸阳唐安昌科技有限公司 Intelligent electric hoist control system
JP2023172301A (en) * 2022-05-23 2023-12-06 日立建機株式会社 Remote control system, remote-controlled work machine system, and work information display control method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06312894A (en) * 1993-04-28 1994-11-08 Mitsubishi Heavy Ind Ltd Operating device for crane
JP4421352B2 (en) * 2004-03-31 2010-02-24 三井造船株式会社 Container spreader positioning display device
JP5919022B2 (en) * 2012-02-15 2016-05-18 株式会社フジタ Remote control system
JP5971994B2 (en) * 2012-03-19 2016-08-17 株式会社タダノ Crane work monitoring device

Also Published As

Publication number Publication date
JP2019206424A (en) 2019-12-05

Similar Documents

Publication Publication Date Title
JP6838782B2 (en) Container crane control system and container crane control method
CN105431370B (en) For method and system container automatically unloaded using container crane in unloading target
RU2559838C1 (en) System and method of determining position and warping load gripper of crane
JP2021525690A (en) Offshore vessels, preferably offshore wind turbine installation vessels, cranes for providing such vessels, and preferably methods for using such cranes for erecting monopile.
JP6966935B2 (en) Automatic operation system for tower cranes
JP6919817B2 (en) Crane control system and control method
KR102463556B1 (en) Monitoring system for preventing lift objects collision against crane
CN111928782B (en) Guidance information display device, guidance information display method, and work machine
JP6481178B2 (en) Crane remote operation method and crane remote operation device
JP2019020131A (en) Raw material mountain measurement method and raw material mountain measurement system
JP2018095367A (en) crane
JP5557163B2 (en) Underwater structure installation equipment
JP2008057243A (en) Method and device for managing building of bridge
JP6309481B2 (en) Crane driving support method and crane driving support device
JP4421352B2 (en) Container spreader positioning display device
WO2019017469A1 (en) Ground surface estimation method, guide information display device, and crane
JP7290012B2 (en) CRANE OPERATION SUPPORT SYSTEM AND OPERATION SUPPORT METHOD
JP7063516B2 (en) Crane operation support system and operation support method
JP2019048681A (en) Cargo conveying system, cargo conveying device and cargo conveying method
JP6879618B2 (en) Crane operation support system and operation support method
JP6984080B2 (en) Pendulum length measuring device used for steady rest control of cranes
JP2021046308A (en) Driving support system of crane and driving support method of crane
JP6879579B2 (en) Remote control system and remote control method for container cranes
JP6511683B1 (en) Container crane remote control system and remote control method
JP6879578B2 (en) Remote control system and remote control method for container cranes

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20200305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210707

R150 Certificate of patent or registration of utility model

Ref document number: 6919817

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350