JP7345335B2 - Crane operation support system and crane operation support method - Google Patents

Crane operation support system and crane operation support method Download PDF

Info

Publication number
JP7345335B2
JP7345335B2 JP2019171309A JP2019171309A JP7345335B2 JP 7345335 B2 JP7345335 B2 JP 7345335B2 JP 2019171309 A JP2019171309 A JP 2019171309A JP 2019171309 A JP2019171309 A JP 2019171309A JP 7345335 B2 JP7345335 B2 JP 7345335B2
Authority
JP
Japan
Prior art keywords
image
cargo handling
hanging
suspended
crane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019171309A
Other languages
Japanese (ja)
Other versions
JP2021046308A (en
Inventor
昌弘 山本
宏之 荒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsui E&S Co Ltd
Original Assignee
Mitsui E&S Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsui E&S Holdings Co Ltd filed Critical Mitsui E&S Holdings Co Ltd
Priority to JP2019171309A priority Critical patent/JP7345335B2/en
Publication of JP2021046308A publication Critical patent/JP2021046308A/en
Application granted granted Critical
Publication of JP7345335B2 publication Critical patent/JP7345335B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明はクレーンの運転支援システム及びクレーンの運転支援方法に関する。 The present invention relates to a crane operation support system and a crane operation support method.

岸壁クレーンや門型クレーンのようにコンテナターミナルでコンテナの荷役を行うクレーンは、コンテナターミナルの自動化による荷役効率の向上や作業員の安全の確保等を目的として、運転室をクレーンから離れた位置に設ける遠隔操作式とする場合がある。
遠隔操作式のクレーンでは、運転手が荷役対象やクレーン側の吊具を目視できない位置に運転室が配置される場合が多い。そのため、遠隔操作式のクレーンではトロリ等に設けられたカメラでクレーンやその周囲の映像を撮像して運転室の表示手段に表示し、運転手が表示された映像を参照してトロリや吊具を操作する。
一方で、カメラ映像等の映像信号は、表示手段とクレーンの距離が遠くなるほど信号が減衰する。そのため、映像信号を光信号やイーサネット(登録商標)信号のように、映像信号よりも減衰に強い信号に変換して伝送する場合がある。例えば特許文献1ではクレーンの映像信号を含む表示・制御用信号の全てがIPデータに変換されている。この場合、映像信号の変換に要する時間だけ伝送信号に遅延が発生する。そのため映像が表示手段に表示されるタイミングが、実際にクレーンが撮像されたタイミングから遅延する問題があった。一方でクレーンの操作に係る指令を伝達する制御信号は、映像信号ほど変換に時間を要しないため、伝送信号に遅延がほとんど発生しない。そのため、運転手の操作が直ちにクレーンの動作に反映され、操作がクレーンの動作に反映されるタイミングに対する、映像が表示手段に表示されるタイミングの遅延が顕著になる。
これに対して特許文献2には、映像伝送の遅延状況を把握して遅延時間が一定以上の場合はクレーンの動作を停止する技術が記載されている。特許文献3には、映像伝送の遅延状況を把握して遅延時間を運転手に知得させる技術が記載されている。
Cranes such as quayside cranes and gantry cranes that handle containers at container terminals have their operating cabs located away from the cranes in order to improve cargo handling efficiency through automation of container terminals and ensure worker safety. In some cases, the system may be remotely controlled.
In remote-controlled cranes, the operator's cab is often located in a location where the driver cannot visually see the cargo to be handled or the lifting equipment on the crane side. For this reason, with remote-controlled cranes, a camera installed on the trolley captures an image of the crane and its surroundings and displays it on a display in the driver's cab, and the driver can refer to the displayed image and use the camera installed on the trolley or other device to capture images of the crane and its surroundings. operate.
On the other hand, the signal of a video signal such as a camera video is attenuated as the distance between the display means and the crane increases. Therefore, the video signal may be converted into a signal that is more resistant to attenuation than the video signal, such as an optical signal or an Ethernet (registered trademark) signal, and then transmitted. For example, in Patent Document 1, all display and control signals including crane video signals are converted to IP data. In this case, a delay occurs in the transmission signal by the time required to convert the video signal. Therefore, there has been a problem that the timing at which the image is displayed on the display means is delayed from the timing at which the crane is actually imaged. On the other hand, control signals that transmit commands related to crane operation require less time to convert than video signals, so there is almost no delay in the transmitted signals. Therefore, the driver's operation is immediately reflected in the movement of the crane, and there is a noticeable delay in the timing at which the image is displayed on the display means with respect to the timing at which the operation is reflected in the movement of the crane.
On the other hand, Patent Document 2 describes a technique for ascertaining the delay status of video transmission and stopping the operation of the crane if the delay time exceeds a certain value. Patent Document 3 describes a technique for grasping the delay status of video transmission and making the driver aware of the delay time.

特開2012-041132号公報Japanese Patent Application Publication No. 2012-041132 特開2012-142789号公報Japanese Patent Application Publication No. 2012-142789 特開2016-072727号公報JP2016-072727A

しかしながら特許文献2、3の技術では、遅延状況を把握できるだけであり、表示の遅延を解消することができない。そのため、この技術では微細なクレーン操作を行うことが困難であるという問題があった。特に、吊具に振れが生じているクレーンの操作では、吊具が所定の振れ角に達した時点で吊具を動作させることで、振れを抑制したり、コンテナを目標位置に着床したりする技術が求められる。しかしながら映像信号が遅延する場合、所定の振れ角の吊具の映像が表示手段に表示された時点では、実際の吊具は既にその振れ角でない。そのため、映像に基づき、吊具が実際に所定の振れ角に達した時点でクレーンを運転手が動作させることは困難であった。
本発明は上記課題に鑑みてなされたものであり、表示手段に表示される映像に遅延が生じ難いクレーンの運転支援システムの提供を目的とする。
However, the techniques disclosed in Patent Documents 2 and 3 can only grasp the delay situation and cannot eliminate the display delay. Therefore, this technique has a problem in that it is difficult to perform fine crane operations. In particular, when operating a crane where the lifting equipment is swinging, by operating the lifting equipment when the lifting equipment reaches a predetermined swing angle, swinging can be suppressed and the container can land at the target position. Technology to do this is required. However, if the video signal is delayed, by the time the image of the hanger at a predetermined deflection angle is displayed on the display means, the actual hanger is already at that deflection angle. Therefore, it was difficult for the driver to operate the crane based on the video when the hanging device actually reached a predetermined swing angle.
The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide a crane driving support system in which delays in images displayed on a display means are less likely to occur.

上記した課題を解決するため本発明は支持構造体と、前記支持構造体に支持されて荷役対象を蔵置領域から吊り上げる吊具を備えるクレーンの運転を支援する運転支援システムであって、前記荷役対象を掴んでいない状態の前記吊具、又は、前記荷役対象を掴んだ状態の前記吊具とその掴まれた前記荷役対象を、吊体として、前記吊体の位置及び姿勢を予め定められた所定の周期で検出して、検出結果を示す位置検出信号を生成する位置検出手段と、前記位置検出手段に接続されて前記位置検出信号が入力され、前記位置検出信号が示す前記吊体の前記蔵置領域における位置及び姿勢で、かつ所定の視点及び所定の視野で前記吊体を示す画像情報である吊体モデル情報を描画した画像である吊体画像を含む画像である処理画像を前記所定の周期以下の周期で生成する画像生成手段と、前記画像生成手段に接続され、前記処理画像を表示する表示手段と、を備えていて、前記吊体画像は、前記吊具のトリムおよびリストおよびスキューと、前記吊具の振れ角とが前記姿勢として反映されていることを特徴とする。 In order to solve the above-mentioned problems, the present invention provides an operation support system for supporting the operation of a crane including a support structure and a lifting device supported by the support structure and lifting a cargo handling object from a storage area. The hanging tool in a state where it is not gripping the cargo handling object, or the lifting tool in a state in which the cargo handling object is gripped and the grabbed cargo handling object are used as a hanging body, and the position and posture of the hanging body are set in a predetermined predetermined position. a position detecting means for detecting at a period of , and generating a position detecting signal indicating a detection result; The processed image, which is an image including a suspended body image, which is an image obtained by drawing suspended body model information, which is image information indicating the suspended body at a position and orientation in the area, and at a predetermined viewpoint and a predetermined visual field, is processed at the predetermined period. The hanging object image includes an image generating means that generates images at the following intervals, and a display means that is connected to the image generating means and displays the processed image , and the hanging object image is generated based on the trim, list, and skew of the hanging tool. , characterized in that the deflection angle of the hanging tool is reflected as the attitude .

また、本発明は、支持構造体と、前記支持構造体に支持されて荷役対象を蔵置領域から吊り上げる吊具を備えるクレーンの運転を支援する運転支援方法であって、前記荷役対象を掴んでいない状態の前記吊具、又は、前記荷役対象を掴んだ状態の前記吊具とその掴まれた前記荷役対象を、吊体として、前記吊体の位置及び姿勢を予め定められた所定の周期で検出して、検出結果を示す位置検出信号を生成する位置検出工程と、前記位置検出信号を取得し、前記位置検出信号が示す前記吊体の前記蔵置領域における位置及び姿勢で、かつ所定の視点及び所定の視野で、前記吊体を示す画像である吊体モデル情報を描画した画像であり、前記吊具のトリムおよびリストおよびスキューと、前記吊具の振れ角とが前記姿勢として反映されている吊体画像を含む画像である処理画像を前記所定の周期以下の周期で生成する画像生成工程と、前記処理画像を表示手段に表示する表示工程と、を実施することを特徴とする。 Further, the present invention provides an operation support method for supporting the operation of a crane including a support structure and a lifting device supported by the support structure to lift a cargo handling object from a storage area, wherein the crane is not grasping the cargo handling object. detecting the position and posture of the hanging body at a predetermined period, using the hanging tool in a state where the lifting tool is in a state where it is in a state of grasping the cargo handling object, or the said hanging tool in a state in which it is grasping the cargo handling object and the grasped cargo handling object as a hanging object; a position detection step of generating a position detection signal indicating a detection result; and a position detection step of acquiring the position detection signal and detecting the suspended body at a position and orientation in the storage area indicated by the position detection signal, and at a predetermined viewpoint and This is an image in which hanging body model information, which is an image showing the hanging body, is drawn in a predetermined field of view, and the trim, list, and skew of the hanging fixture, and the deflection angle of the hanging fixture are reflected as the posture. The present invention is characterized by performing an image generation step of generating a processed image including an image of a hanging object at a cycle equal to or less than the predetermined cycle, and a display step of displaying the processed image on a display means.

本発明では、吊体のモデル情報に、位置検出手段から所定の周期で入力された位置検出信号を基に実際の吊体の蔵置領域における現在位置情報を反映させた吊体画像が所定の視点及び視野で生成され、表示部に表示される。
この構成では、位置検出信号が主として吊体の位置情報を有する信号であり、かつ所定の周期で取得されるので、伝送の際に信号が変換されたとしても変換に要する時間が短く、映像信号を基にして吊体の映像を表示する場合と比べ、表示の遅延時間が短い。
よって、表示手段に表示される映像に遅延が生じ難い。
In the present invention, the suspended object image is created by reflecting the current position information of the actual suspended object in the storage area on the model information of the suspended object based on the position detection signal input from the position detection means at a predetermined period. and is generated in the field of view and displayed on the display unit.
In this configuration, the position detection signal is a signal that mainly has position information of the suspended object and is acquired at a predetermined period, so even if the signal is converted during transmission, the time required for conversion is short, and the video signal The display delay time is shorter than when displaying an image of a suspended object based on .
Therefore, delays are unlikely to occur in the video displayed on the display means.

本実施形態に係るクレーンの運転支援システムの適用対象であるクレーンを示す側面図である。FIG. 1 is a side view showing a crane to which the crane driving support system according to the present embodiment is applied. クレーンの運転支援システムを示す機能ブロック図である。FIG. 2 is a functional block diagram showing a crane driving support system. 吊体モデル情報の例を示す図である。It is a figure showing an example of suspension model information. 吊体画像の例を示す図である。It is a figure showing an example of a suspended object image. 荷役対象モデル情報の例を示す図である。FIG. 3 is a diagram showing an example of cargo handling target model information. (a)はコンテナ船の甲板上に配置されたコンテナの荷役対象情報を基に、荷役対象モデル情報を描画した荷役対象画像の例を示す図であり、(b)は(a)の荷役対象画像を図4(a)の吊体画像に重ねて生成した処理画像の例を示す図である。(a) is a diagram showing an example of a cargo handling object image in which cargo handling object model information is drawn based on cargo handling object information of containers placed on the deck of a container ship, and (b) is a diagram showing an example of a cargo handling object image in which cargo handling object model information is drawn based on cargo handling object information of containers placed on the deck of a container ship. It is a figure which shows the example of the processed image produced|generated by superimposing an image on the suspended object image of Fig.4 (a). 図1の吊体の位置、コンテナ、視点、及び視野角の関係を示す図である。FIG. 2 is a diagram showing the relationship among the position of the hanging body, container, viewpoint, and viewing angle of FIG. 1; 移動体モデル情報の例を示す図である。It is a figure showing an example of mobile object model information. 図1におけるコンテナ船の移動体情報を基に、移動体画像を描画して吊体画像及び荷役対象画像に重ねて処理画像を生成した例を示す図である。FIG. 2 is a diagram illustrating an example in which a moving object image is drawn based on the moving object information of the container ship in FIG. 1 and is superimposed on a suspended object image and a cargo handling object image to generate a processed image. 補助画像の例を示す図である。It is a figure which shows the example of an auxiliary image. 本実施形態に係るクレーンの運転支援システムを用いた運転支援方法を示すフロー図である。FIG. 2 is a flow diagram showing a driving support method using the crane driving support system according to the present embodiment. 図11のS9で生成された処理画像の例を示す図である。12 is a diagram showing an example of a processed image generated in S9 of FIG. 11. FIG.

以下、図面に基づき本発明に好適な実施形態を詳細に説明する。
まず図1を参照して本実施形態に係るクレーンの運転支援システムの適用対象であるクレーンの概略構成を説明する。ここではクレーンとして、岸壁に接岸したコンテナ船との間でコンテナ荷役を行う岸壁クレーンが例示されている。ただし本実施形態の適用対象はクレーンであればよいので、門型クレーンやジブクレーンでもよい。
Hereinafter, preferred embodiments of the present invention will be described in detail based on the drawings.
First, with reference to FIG. 1, a schematic configuration of a crane to which a crane driving support system according to the present embodiment is applied will be described. Here, as an example of a crane, a quayside crane is exemplified that performs container loading and unloading with a container ship berthed at a quayside. However, since this embodiment can be applied to any crane, it may be a gate type crane or a jib crane.

図1に示すようにクレーン1は、一対の支持構造体3、支持構造体3の下端に設けられ、一対のレール5上をY方向に走行する走行装置7、支持構造体3の上部から第1の向きとしてのX方向海側に張り出した桁9を備える。クレーン1は、桁9に支持されてX方向に走行するトロリ11、トロリ11にワイヤ8で支持されてZ方向に移動してコンテナ10を吊り上げる吊具であるスプレッダ13も備える。
図1に示すクレーン1は遠隔操作方式のクレーンであり、走行装置7、トロリ11、スプレッダ13等を操作する運転室15は、クレーン1と別の場所に設けられる。
以上がクレーン1の概略構成の説明である。
As shown in FIG. 1, the crane 1 includes a pair of support structures 3, a traveling device 7 that is provided at the lower end of the support structure 3 and runs in the Y direction on a pair of rails 5, and a A girder 9 is provided that extends toward the sea side in the X direction. The crane 1 also includes a trolley 11 that is supported by a girder 9 and travels in the X direction, and a spreader 13 that is a hoist that is supported by the trolley 11 with a wire 8 and moves in the Z direction to lift the container 10.
The crane 1 shown in FIG. 1 is a remote-controlled crane, and a driver's cab 15 for operating the traveling device 7, trolley 11, spreader 13, etc. is provided at a different location from the crane 1.
The above is a description of the schematic configuration of the crane 1.

次に図1~図10を参照して本実施形態に係るクレーンの運転支援システム27の構成を説明する。なお、以下の説明では荷役対象であるコンテナ10を掴んでいない状態のスプレッダ13、又は、コンテナ10を掴んだ状態のスプレッダ13とその掴まれたコンテナ10を吊体12と称す。 Next, the configuration of the crane driving support system 27 according to this embodiment will be explained with reference to FIGS. 1 to 10. In the following description, the spreader 13 that is not gripping the container 10 to be handled, or the spreader 13 that is gripping the container 10 and the gripped container 10 will be referred to as the hanging body 12.

図2に示すように運転支援システム27は、位置検出手段19、荷役対象位置取得手段25、移動体位置取得手段29、画像生成手段21、及び表示手段23を備える。
運転支援システム27はクレーン1の運転を支援するシステムであり、その概要は、吊体12の位置を予め定められた周期で位置検出手段19が検出し、検出結果に基づき吊体12を画像生成手段21が描画し、表示手段23が表示するシステムである。
As shown in FIG. 2, the driving support system 27 includes a position detection means 19, a cargo handling object position acquisition means 25, a moving body position acquisition means 29, an image generation means 21, and a display means 23.
The operation support system 27 is a system that supports the operation of the crane 1, and its outline is that the position detection means 19 detects the position of the suspended body 12 at a predetermined period, and generates an image of the suspended body 12 based on the detection result. This is a system in which the means 21 draws and the display means 23 displays.

位置検出手段19は吊体12の位置を予め定められた所定の周期で検出して、検出結果を示す位置検出信号を生成する手段である。
所定の周期とは、吊体12の位置を位置検出手段19が取得する際の所謂サンプリング周期のことである。この周期は、映像信号を基にして吊体12の映像を表示する場合と比べ、吊体12を描画した画像の表示に要する時間が短くなる範囲で適宜設定できるが、クレーン1を操作する指令を示す制御信号の遅延時間よりも短いのが好ましい。
制御信号とは、クレーン1を操作するための指令である。具体的には運転室15の操縦卓を運転手が操作することで、走行装置7、トロリ11、スプレッダ13、あるいはこれらを制御するPLC等の機器に送信される信号を意味する。
また、制御信号の遅延時間とは、制御信号が操縦卓の操作で生成されてから、制御対象が動作を開始するまでに要する時間を意味する。
制御信号の遅延時間よりも所定の周期を短くすることで、運転手の操作がクレーン1の動作に反映されるタイミングに対する、吊体12の画像が生成されるタイミングが、より遅れ難くなる。例えば制御信号の遅延時間が20ms程度の場合、位置検出手段19のサンプリング周期は20ms以下であるのが好ましい。所定の周期は単一の値でもよいし、値を変えられるように位置検出手段19を構成してもよい。
The position detecting means 19 is a means for detecting the position of the suspended body 12 at a predetermined period and generating a position detection signal indicating the detection result.
The predetermined period is a so-called sampling period when the position detecting means 19 acquires the position of the hanging body 12. This cycle can be set as appropriate within a range that reduces the time required to display an image depicting the suspended body 12 compared to the case where an image of the suspended body 12 is displayed based on a video signal, but the command to operate the crane 1 can be set as appropriate. It is preferable that the delay time is shorter than the delay time of the control signal indicating .
The control signal is a command for operating the crane 1. Specifically, it refers to a signal that is transmitted to the traveling device 7, trolley 11, spreader 13, or equipment such as a PLC that controls these when the driver operates the control console in the driver's cab 15.
Further, the delay time of a control signal means the time required from when the control signal is generated by operating the control console until the controlled object starts operating.
By making the predetermined period shorter than the delay time of the control signal, the timing at which the image of the suspended body 12 is generated is less likely to be delayed relative to the timing at which the driver's operation is reflected in the operation of the crane 1. For example, when the delay time of the control signal is about 20 ms, the sampling period of the position detecting means 19 is preferably 20 ms or less. The predetermined cycle may be a single value, or the position detection means 19 may be configured to change the value.

吊体12の位置とは、蔵置領域における吊体12の位置を意味する。蔵置領域とはコンテナ10が蔵置された領域を意味する。例えば図1ではコンテナ船48でコンテナ10が蔵置される暴露甲板93や図示しない船倉等の領域R1が蔵置領域である。また、図1の領域R2のように、桁9の岸壁側の延在領域であるバックリーチ下方にもコンテナを蔵置する場合、領域R2も蔵置領域になる。吊体12の位置は蔵置領域における所定位置に対する相対位置であるのが好ましい。蔵置領域における吊体12の位置を把握できるためである。ただしGPS座標のような絶対位置でもよい。 The position of the hanging body 12 means the position of the hanging body 12 in the storage area. The storage area means an area where the container 10 is stored. For example, in FIG. 1, an area R1 such as an exposed deck 93 or a hold (not shown) where containers 10 are stored in a container ship 48 is a storage area. In addition, when containers are stored also below the back reach, which is the extension area on the quay side of the girder 9, as in area R2 in FIG. 1, area R2 also becomes a storage area. The position of the hanging body 12 is preferably relative to a predetermined position in the storage area. This is because the position of the hanging body 12 in the storage area can be grasped. However, an absolute position such as GPS coordinates may be used.

位置検出手段19は、吊体12の位置を検出できる公知の手段を用いればよい。例えばレーザセンサ、ドップラーレーダ、GPS受信機が挙げられる。
位置検出手段19が設けられる位置は、吊体12の位置を検出できる位置であれば、クレーン1の支持構造体3、桁9、トロリ11等のいずれに設けてもよい。図1では位置センサ19aをトロリ11に設けた例を図示している。
位置検出手段19が検出する吊体12における具体的な位置は、吊体12全体の位置を代表できるのであれば、任意の位置を設定できる。また、スプレッダ13の表面に位置検出用の凹凸を検出用のマーカとして設け、そのマーカを検出してもよい。
また、レーザセンサを用いる場合はスプレッダ13の任意の範囲を走査して外形を検出することで、その位置を特定してもよい。
具体的な位置としては、スプレッダ13の緊締装置であるツイストロックの位置が好ましい。ツイストロックの位置からスプレッダ13の位置を検出することで、荷役時に運転手が正確に把握する必要があるツイストロックの位置が高精度で反映された吊体画像が得られるためである。
As the position detection means 19, any known means capable of detecting the position of the suspended body 12 may be used. Examples include laser sensors, Doppler radar, and GPS receivers.
The position detection means 19 may be provided in any of the support structure 3 of the crane 1, the girder 9, the trolley 11, etc., as long as the position of the suspended body 12 can be detected. FIG. 1 shows an example in which the position sensor 19a is provided on the trolley 11.
The specific position on the suspended body 12 detected by the position detection means 19 can be set to any position as long as it can represent the position of the entire suspended body 12. Alternatively, unevenness for position detection may be provided on the surface of the spreader 13 as a detection marker, and the marker may be detected.
Further, when using a laser sensor, the position may be specified by scanning an arbitrary range of the spreader 13 and detecting the outer shape.
As a specific position, the position of the twist lock which is the tightening device of the spreader 13 is preferable. This is because by detecting the position of the spreader 13 from the position of the twist lock, a suspended object image that accurately reflects the position of the twist lock, which the driver needs to accurately grasp during cargo handling, can be obtained.

ツイストロックの位置を求める場合、ロック部分を直接位置センサ等で検出してもよい。ただしツイストロックはスプレッダ13の底面に設けられることが大半であり、直接検出し難い場合は、ツイストロック上方のスプレッダ13の上面を検出してツイストロックの位置を求めてもよい。
位置検出手段19は運転支援システム27専用にクレーン1に設けてもよい。吊体12の着床時の位置合わせ等のために設けられた既設の位置センサを用いてもよい。
When determining the position of the twist lock, the lock portion may be directly detected by a position sensor or the like. However, the twist lock is mostly provided on the bottom surface of the spreader 13, and if it is difficult to detect it directly, the position of the twist lock may be determined by detecting the top surface of the spreader 13 above the twist lock.
The position detection means 19 may be provided in the crane 1 exclusively for the driving support system 27. An existing position sensor provided for positioning the hanging body 12 when it lands on the floor, etc. may be used.

位置検出手段19は、吊体12の姿勢も予め定められた所定の周期で検出して、検出結果を位置検出信号として生成する手段でもあるのが好ましい。吊体12の姿勢とは、吊体12の中立姿勢に対する傾きを意味し、例えばトリム、リスト、スキューが挙げられる。トリムは図1でいうY-Z平面内の傾きであり、リストはX-Z平面内の傾きである。スキューはX-Y平面内の傾きである。吊体12の姿勢にはトロリ11に対するスプレッダ13のX方向のズレ(ワイヤ8のX方向傾斜角)である振れ角も含まれる。
この構成では、吊体12の姿勢も反映させた吊体画像が生成されるので、吊体12の姿勢も吊体画像に反映できる。
位置検出手段19が吊体12の姿勢も検出する場合、角速度センサのように、姿勢を直接検出する構成が挙げられる。振れ角は振れ角センサで求められる。
Preferably, the position detecting means 19 also detects the attitude of the hanging body 12 at a predetermined period, and generates the detection result as a position detection signal. The posture of the suspended body 12 means the inclination of the suspended body 12 with respect to the neutral posture, and includes, for example, trim, wrist, and skew. Trim is the inclination in the YZ plane in FIG. 1, and list is the inclination in the XZ plane. Skew is the tilt in the XY plane. The attitude of the hanging body 12 also includes a deflection angle which is the deviation of the spreader 13 in the X direction with respect to the trolley 11 (the inclination angle of the wire 8 in the X direction).
With this configuration, a hanging object image that also reflects the attitude of the hanging object 12 is generated, so that the attitude of the hanging object 12 can also be reflected in the hanging object image.
When the position detecting means 19 also detects the attitude of the suspended body 12, a configuration that directly detects the attitude, such as an angular velocity sensor, can be used. The deflection angle is determined by a deflection angle sensor.

位置検出手段19は、吊体12の姿勢を直接検出せずに複数の位置センサ19aで検出した位置から吊体12の姿勢を検出する構成でもよい。
例えばスプレッダ13の緊締装置であるツイストロックの位置を検出する構成とすれば、吊体12の姿勢は検出できる。ツイストロックは平面視で吊体12の図心から等間隔となるようにスプレッダ13の4隅に配置されるため、4つのツイストロックの位置関係から吊体12のトリム等を求められるためである。また、トロリ11の位置も検出すれば、トロリ11と吊体12の位置関係から振れ角が求められるためである。
The position detection means 19 may be configured to detect the posture of the suspended body 12 from the positions detected by a plurality of position sensors 19a without directly detecting the posture of the suspended body 12.
For example, if the configuration is such that the position of a twist lock, which is a tightening device for the spreader 13, is detected, the attitude of the hanging body 12 can be detected. This is because the twist locks are arranged at the four corners of the spreader 13 so as to be equidistant from the centroid of the hanging body 12 in plan view, so trimming of the hanging body 12 can be determined from the positional relationship of the four twist locks. Furthermore, if the position of the trolley 11 is also detected, the swing angle can be determined from the positional relationship between the trolley 11 and the hanging body 12.

荷役対象位置取得手段25は、蔵置領域に蔵置された荷役対象であるコンテナ10の蔵置領域における位置を含む情報である荷役対象情報を取得する手段であり、必要に応じて設けられる。荷役対象位置取得手段25は、画像生成手段21に接続される。
荷役対象情報はコンテナ10の蔵置領域における位置に関する情報を含むが、位置以外にもコンテナ10を特定できる情報を含んでもよい。コンテナ10を特定できる情報とは、あるコンテナを他のコンテナと区別できる情報を意味する。例えば、コンテナの姿勢、種類、色彩、コンテナに搭載された貨物、あるいはコンテナ表面に記載された識別番号等の情報がコンテナを特定できる情報として挙げられる。
The cargo handling object position acquisition means 25 is a means for obtaining cargo handling object information, which is information including the position in the storage area of the container 10 that is the cargo handling object stored in the storage area, and is provided as necessary. The cargo handling object position acquisition means 25 is connected to the image generation means 21.
The cargo handling target information includes information regarding the position of the container 10 in the storage area, but may also include information that can identify the container 10 in addition to the position. Information that can identify a container 10 means information that can distinguish a certain container from other containers. For example, information that can identify a container includes information such as the attitude, type, and color of the container, the cargo loaded in the container, and the identification number written on the surface of the container.

荷役対象情報を取得できるのであれば、具体的な荷役対象位置取得手段25の構成は適宜選択できる。例えば図2に示すクレーン1に設けられた位置センサ25aを用いてコンテナ10の位置を取得してもよい。この場合は位置センサ25aが荷役対象位置取得手段25となる。荷役対象画像71にコンテナ10の識別番号を含める場合は、クレーン1にイメージスキャナ等を設けて、コンテナ10の識別番号をOCR(光学文字認識)で読み取ってもよい。
あるいはコンテナターミナルのTOS(Terminal Operation System)30からコンテナ10の位置や識別番号等に関する情報を荷役対象情報として取得する構成でもよい。この場合、図2に示すように、TOS30から荷役対象情報を取得するコンピュータの入出力インタフェース25bが荷役対象位置取得手段25となる。
運転支援システム27が荷役対象位置取得手段25を備えることで、蔵置されたコンテナ10の蔵置領域における位置を示す情報からコンテナ10の画像も生成できる。
そのため、蔵置されたコンテナ10と吊体12との位置関係を示す画像が、実際にその位置関係にあるタイミングで描画されるので、運転手がその画像を参照すれば、位置関係に基づく適切な荷役操作ができる。
As long as cargo handling object information can be acquired, the specific configuration of the cargo handling object position acquisition means 25 can be selected as appropriate. For example, the position of the container 10 may be acquired using a position sensor 25a provided in the crane 1 shown in FIG. In this case, the position sensor 25a becomes the cargo handling object position acquisition means 25. When the identification number of the container 10 is included in the cargo handling target image 71, the crane 1 may be provided with an image scanner or the like to read the identification number of the container 10 using OCR (optical character recognition).
Alternatively, the configuration may be such that information regarding the location, identification number, etc. of the container 10 is acquired from the TOS (Terminal Operation System) 30 of the container terminal as cargo handling target information. In this case, as shown in FIG. 2, the input/output interface 25b of the computer that acquires the cargo handling object information from the TOS 30 becomes the cargo handling object position acquisition means 25.
Since the driving support system 27 includes the cargo handling target position acquisition means 25, an image of the container 10 can also be generated from information indicating the position of the stored container 10 in the storage area.
Therefore, an image showing the positional relationship between the stored container 10 and the hanging body 12 is drawn at the timing when the positional relationship actually exists, so if the driver refers to the image, the appropriate image based on the positional relationship can be drawn. Able to carry out cargo handling operations.

荷役対象位置取得手段25が荷役対象情報を取得する周期は、位置検出手段19が吊体12の位置を検出する周期と同程度であるのが好ましい。これにより、映像信号を基にしてコンテナ10の映像を表示する場合と比べ、表示の遅延時間が短くなる。
なお、図1ではクレーン1として岸壁クレーンを例示しているが、本実施形態のクレーンは岸壁クレーンではなくコンテナヤードでコンテナ10の荷役を行うヤードクレーンでもよい。この場合ヤードに蔵置されたコンテナ10は、クレーン1等で吊り上げない限りは移動しないので、吊体12ほど表示の遅延時間が問題にならない。そのため、荷役対象位置取得手段25がヤードに蔵置されたコンテナ10の荷役対象情報を取得する周期は、位置検出手段19が吊体12の位置を検出する周期よりも長くてもよい。
It is preferable that the period at which the cargo handling object position acquisition means 25 acquires the cargo handling object information is approximately the same as the period at which the position detection means 19 detects the position of the suspended body 12. This shortens the display delay time compared to the case where the image of the container 10 is displayed based on the image signal.
Although a quay crane is illustrated as the crane 1 in FIG. 1, the crane of this embodiment may be a yard crane that handles the loading and unloading of containers 10 in a container yard instead of a quay crane. In this case, since the container 10 stored in the yard does not move unless it is lifted by the crane 1 or the like, the display delay time is not as problematic as the hanging body 12. Therefore, the period at which the cargo handling object position acquisition means 25 acquires the cargo handling object information of the container 10 stored in the yard may be longer than the period at which the position detection means 19 detects the position of the hanging body 12.

移動体位置取得手段29は、蔵置領域を移動する、クレーン1以外の移動体の蔵置領域における位置を含む情報を移動体情報として取得する手段であり、必要に応じて設けられる。移動体位置取得手段29は画像生成手段21に接続される。
クレーン1以外の移動体とは、クレーン1以外で蔵置領域内において移動する物体を意味する。例えば運転支援対象以外のクレーン、リーチスタッカ、ストラドルキャリア、トップリフタ等のコンテナ10を吊り上げて搬送する機器、シャシ等のコンテナ搬送車両が挙げられる。またコンテナ船48は蔵置領域であるが移動体でもある。理由は、岸壁に係留されたコンテナ船48は波や潮位の変動、あるいは荷役の進行による重心位置の変化で、蔵置領域である領域R1の暴露甲板93等の位置と姿勢が変化するためである。さらに、コンテナターミナル内を移動する作業員も移動体として例示できる。
The mobile body position acquisition means 29 is a means for acquiring, as mobile body information, information including the position in the storage area of a mobile body other than the crane 1 that moves in the storage area, and is provided as necessary. The moving object position acquisition means 29 is connected to the image generation means 21 .
The moving object other than the crane 1 means an object other than the crane 1 that moves within the storage area. Examples include equipment that lifts and transports the container 10, such as cranes, reach stackers, straddle carriers, and top lifters other than those targeted for driving support, and container transport vehicles such as chassis. Although the container ship 48 is a storage area, it is also a moving body. This is because the position and attitude of the exposed deck 93, etc. in area R1, which is a storage area, changes due to changes in the center of gravity of the container ship 48 moored at the quay due to changes in waves and tides, or due to the progress of cargo handling. . Furthermore, workers who move within a container terminal can also be exemplified as moving objects.

移動体情報とは、移動体の位置情報を含む情報である。位置情報以外の情報としては、移動体の姿勢、移動体の種類、移動速度、移動する向き等が挙げられる。移動体がコンテナ船48の場合、コンテナ10を蔵置する蔵置領域の1つである暴露甲板93の底面、あるいは甲板上に設けられコンテナ10を固縛する際に作業員の足場となる架橋構造物であるラッシングブリッジ95の位置や姿勢を示す情報が挙げられる。具体的には暴露甲板93やラッシングブリッジ95のサージング(前後揺れ)、スウェイング(左右揺れ)、ヒービング(左右揺れ)、ヨーイング(船首揺れ)、ピッチング(縦揺れ)、ローリング(横揺れ)等の揺れの向き等の状態を示す情報が挙げられる。移動体がシャシの場合は、シャシに搭載しているコンテナ10の種類や識別番号等の情報も挙げられる。移動体がコンテナ10を吊り上げて搬送する機器の場合、その機器が有する吊具の位置や吊り上げたコンテナ10の種類や識別番号等の情報も挙げられる。移動体が作業員の場合は、その位置や歩行する向き等の情報が挙げられる。 Mobile object information is information including position information of a mobile object. Information other than position information includes the posture of the moving body, the type of the moving body, the moving speed, the moving direction, and the like. When the moving body is a container ship 48, a bridge structure is provided on the bottom surface of the exposed deck 93, which is one of the storage areas where the containers 10 are stored, or on the deck and serves as a foothold for workers when securing the containers 10. Information indicating the position and attitude of the lashing bridge 95 is included. Specifically, shaking of the exposed deck 93 and lashing bridge 95 such as surging (swaying back and forth), swaying (swaying from side to side), heaving (swaying from side to side), yawing (swinging of the bow), pitching (swaying), rolling (swaying), etc. Examples include information indicating the state such as the direction of the image. If the moving body is a chassis, information such as the type and identification number of the container 10 mounted on the chassis may also be included. In the case where the moving body is a device that lifts and transports a container 10, information such as the position of a hanging tool included in the device, the type and identification number of the lifted container 10, etc. is also included. If the moving object is a worker, information such as its position and walking direction may be included.

移動体情報を取得できるのであれば、具体的な移動体位置取得手段29の構成は適宜選択できる。例えばクレーン1自身に移動体の位置を検出する位置センサ29aを設けて移動体位置取得手段29としてもよい。あるいは移動体自身がGPS受信機や位置センサ、角速度センサのような位置や姿勢を検出する機器を備える場合、その機器が検出した移動体の位置や姿勢を示す情報を移動体情報として取得する構成でもよい。
例えば移動体がコンテナ船48の場合、コンテナ船48に備えられた角速度センサが検出したロール角等の位置検出結果を移動体情報として取得してしてもよい。この場合は図2に示すように、コンテナ船48から位置検出結果を取得するコンピュータの入出力インタフェース29bが移動体位置取得手段29となる。
運転支援システム27が移動体位置取得手段29を備えることで、蔵置領域内を移動するシャシや作業員や船舶を含む画像も生成できる。
As long as the moving object information can be acquired, the specific configuration of the moving object position acquisition means 29 can be selected as appropriate. For example, the crane 1 itself may be provided with a position sensor 29a for detecting the position of the moving object, and the moving object position acquisition means 29 may be used. Alternatively, if the moving object itself is equipped with a device that detects the position and orientation of the moving object, such as a GPS receiver, position sensor, or angular velocity sensor, a configuration that acquires information indicating the position and orientation of the moving object detected by the device as moving object information. But that's fine.
For example, when the moving object is a container ship 48, position detection results such as a roll angle detected by an angular velocity sensor provided in the container ship 48 may be acquired as the moving object information. In this case, as shown in FIG. 2, the input/output interface 29b of the computer that obtains the position detection result from the container ship 48 becomes the mobile object position acquisition means 29.
By providing the driving support system 27 with the moving body position acquisition means 29, it is also possible to generate images including chassis, workers, and ships moving within the storage area.

画像生成手段21は、位置検出信号をもとに吊体12を示す画像情報である吊体モデル情報を描画した画像である吊体画像を生成する手段である。図2に示すように画像生成手段21は、位置検出手段19に接続されて位置検出信号が入力される。
吊体モデル情報41とは、画像生成手段21が吊体画像を生成する際の吊体12のモデルであり、具体的には吊体12の外形を示す静止画である。スプレッダ13がコンテナ10を掴んだ状態のように吊体12がコンテナ10を含む場合、コンテナ10の外形の情報も含む。吊体12がコンテナ10を含む状態か否かは、スプレッダ13に設けられた片吊り検出用の接触式センサ等の検出結果から判断してもよい。あるいはスプレッダ13の緊締装置がロック状態にあるか否かで判断してもよい。
The image generation means 21 is a means for generating a suspended object image, which is an image in which suspended object model information, which is image information indicating the suspended object 12, is drawn based on the position detection signal. As shown in FIG. 2, the image generating means 21 is connected to the position detecting means 19, and a position detection signal is input thereto.
The suspended body model information 41 is a model of the suspended body 12 when the image generation means 21 generates the suspended body image, and specifically is a still image showing the external shape of the suspended body 12. When the hanging body 12 includes the container 10, such as in a state where the spreader 13 grips the container 10, information on the outer shape of the container 10 is also included. Whether or not the suspended body 12 includes the container 10 may be determined from the detection result of a contact sensor for detecting one-sided suspension provided on the spreader 13. Alternatively, the determination may be made based on whether the tightening device of the spreader 13 is in a locked state.

吊体モデル情報41の例を図3に示す。図3に示す吊体モデル情報41は、スプレッダ13の外形を示している。図3に示す吊体モデル情報41が示すスプレッダ13は、20フィートコンテナと40フィートコンテナの両方を荷役可能であり、固定フレーム43、可動フレーム45、ツイストロック保持部47、及びツイストロック49の外形が描写されている。固定フレーム43はトロリ11にワイヤ8で吊り上げられる平面視矩形の部材である。可動フレーム45は固定フレーム43の水平方向であるY方向両端からY方向に2本ずつ突設された平面視矩形の2対の桁であり、一部が固定フレーム43に収納される。可動フレーム45はコンテナ10のサイズに応じて固定フレーム43に収納されるY方向長さを調整できる。ツイストロック保持部47はツイストロック49を保持する1対の桁であり、Y方向の同じ向きに突設された可動フレーム45の端部をX方向に連結する。ツイストロック49はコンテナ10を掴む緊締装置であり、1対のツイストロック保持部47の両端に2か所ずつ設けられる。 An example of the hanging body model information 41 is shown in FIG. Hanging body model information 41 shown in FIG. 3 shows the outer shape of the spreader 13. The spreader 13 indicated by the suspended body model information 41 shown in FIG. is depicted. The fixed frame 43 is a rectangular member suspended from the trolley 11 with a wire 8 in plan view. The movable frame 45 is a pair of rectangular girders in a plan view that protrudes from both ends of the fixed frame 43 in the Y direction (horizontal direction), and a portion of the movable frame 45 is housed in the fixed frame 43 . The length of the movable frame 45 in the Y direction accommodated in the fixed frame 43 can be adjusted according to the size of the container 10. The twist lock holding parts 47 are a pair of girders that hold the twist locks 49, and connect the ends of the movable frames 45 protruding in the same direction in the Y direction in the X direction. The twist locks 49 are tightening devices for gripping the container 10, and are provided at two locations at each end of the pair of twist lock holding portions 47.

図3に示すように吊体モデル情報41は吊体12の三次元形状を示す情報が好ましい。三次元形状を示す情報とすることで、吊体画像を三次元で生成できるためである。三次元形状を示す情報とは、デカルト座標系でいうx、y、z全ての座標を備える情報を意味する。三次元形状を示す情報は、極座標等の他の座標系の情報でもよい。
吊体12の種類が複数ある場合、吊体モデル情報41は吊体12の種類ごとに異なる情報であるのが好ましい。例えばコンテナ10のサイズごとに異なる構造のスプレッダ13を用いる場合は、構造が異なるスプレッダ13に対応した吊体モデル情報41を用意する。この構成とすることで、スプレッダ13の交換等で吊体12の種類が変わった場合でも、交換後のスプレッダ13の外形を示す吊体画像を生成できる。
As shown in FIG. 3, the suspended body model information 41 is preferably information indicating the three-dimensional shape of the suspended body 12. This is because by using information indicating a three-dimensional shape, a hanging object image can be generated in three dimensions. Information indicating a three-dimensional shape means information including all x, y, and z coordinates in the Cartesian coordinate system. The information indicating the three-dimensional shape may be information on other coordinate systems such as polar coordinates.
When there are multiple types of hanging bodies 12, it is preferable that the hanging body model information 41 is different information for each type of hanging body 12. For example, when using spreaders 13 with different structures for each size of the container 10, suspension model information 41 corresponding to the spreaders 13 with different structures is prepared. With this configuration, even if the type of hanging body 12 changes due to replacement of the spreader 13, etc., a suspended body image showing the external shape of the spreader 13 after replacement can be generated.

吊体モデル情報41を見た運転手が吊体12を描画した画像であると認識できる程度の情報量の画像であれば、吊体モデル情報41は、実際の吊体12の映像よりも情報量が少ない画像でもよい。具体的には外形線や構造物の一部を省略した画像でもよい。例えば図3に示す吊体モデル情報41は固定フレーム43、可動フレーム45、ツイストロック保持部47が6面体で簡略化されて描画されている。実際の吊体12の映像よりも情報量が少ない画像を吊体モデル情報41とすることで、吊体画像の生成に要する時間をより短くできるので、吊体画像を生成する際の遅延がより生じ難くなる。
ただし、吊体モデル情報41は映像と同程度に吊体12の外形を把握できる情報量の画像でもよい。このような吊体モデル情報41を用いることで、映像信号を基に描画した吊体映像から得られる情報量と同程度の情報量を吊体画像から得られる。
If the amount of information in the image is large enough for the driver who sees the hanging object model information 41 to recognize that it is an image depicting the hanging object 12, the hanging object model information 41 is more information than the actual image of the hanging object 12. Images with a small amount may be used. Specifically, it may be an image in which the outline or part of the structure is omitted. For example, in the suspension model information 41 shown in FIG. 3, the fixed frame 43, the movable frame 45, and the twist lock holding part 47 are simplified and drawn as hexahedrons. By using an image with a smaller amount of information than the actual image of the suspended object 12 as the suspended object model information 41, the time required to generate the suspended object image can be shortened, so that the delay in generating the suspended object image can be reduced. It becomes difficult to occur.
However, the suspended body model information 41 may be an image with an amount of information that allows the outer shape of the suspended body 12 to be grasped to the same extent as a video. By using such suspended body model information 41, an amount of information comparable to that obtained from a suspended body image drawn based on a video signal can be obtained from a suspended body image.

図3では吊体モデル情報41は不透明な画像であるが、ワイヤーフレームのような透明な画像、あるいは半透明な画像でもよい。このような画像を吊体モデル情報41として用いることで、吊体画像の生成に要する時間をより短くできるので、描画の遅延がより生じ難くなる。さらに、視点から見て吊体画像に隠れた後背の画像を表示できるので、吊体12以外の画像の情報量をより多くできる。 Although the hanging body model information 41 is an opaque image in FIG. 3, it may be a transparent image such as a wire frame or a semi-transparent image. By using such an image as the hanging object model information 41, the time required to generate the hanging object image can be made shorter, so that delays in rendering are less likely to occur. Furthermore, since it is possible to display an image of the back hidden in the suspended body image when viewed from the viewpoint, the amount of information of images other than the suspended body 12 can be increased.

画像生成手段21は、所定の視点及び所定の視野で吊体モデル情報41を描画することで、吊体画像を生成する。視点とは、吊体12を描画する際の立脚点を意味する。より具体的には、仮に運転手が吊体12を所定の位置から肉眼で見ている場合の当該所定の位置と、その位置からの視線の向きを意味する。視野とは、吊体画像を描画する範囲を示すものであり、具体的には視点を中心とした視野角を意味する。 The image generation means 21 generates a suspended body image by drawing the suspended body model information 41 at a predetermined viewpoint and a predetermined field of view. A viewpoint means a standing point when drawing the hanging body 12. More specifically, it means the predetermined position and the direction of the line of sight from the predetermined position when the driver views the hanging body 12 with the naked eye from a predetermined position. The field of view indicates the range in which the suspended object image is drawn, and specifically means the viewing angle centered on the viewpoint.

吊体12が吊体画像内に描画されるのであれば、視点は任意の位置を設定できる。具体的な視点は、遠隔操作でないクレーン1の運転室15からの視点と同じとする場合を例示できる。具体的には、吊体12の真上からトロリ11の移動方向に所定量ずれた位置から吊体12を見下ろす視点を例示できる。図1ではこのような視点V1として、トロリ11から、トロリ11の走行方向であるX方向の陸側にずれた位置P1から吊体12を見下ろす向きA1となる視点を例示している。通常の遠隔操作でないクレーン1の運転室15は、トロリ11の陸側端部に設けられており、運転手は運転室から吊体12を見下ろしながら操作を行っている。そのため、吊体12の真上からトロリ11の移動方向に所定量ずれた位置から吊体12を見下ろす視点とすることで、遠隔操作でない従来のクレーン1と同じ視点で吊体12を描画した吊体画像51が生成される。
例えば視点V1と吊体12の位置が図1に示す位置関係であった場合、図3に示す吊体モデル情報41、吊体12の位置、及び視点V1に基づき生成される吊体画像51は図4(a)に示す画像となる。
この視点V1は、遠隔操作でない従来のクレーン1の運転に慣れた運転手が、従来のクレーン1と同じ感覚で荷役操作を行える点で有利である。
As long as the suspended body 12 is drawn within the suspended body image, the viewpoint can be set at any position. A specific viewpoint can be exemplified as the same as the viewpoint from the operator's cab 15 of the crane 1 which is not remotely operated. Specifically, a viewpoint looking down on the hanging body 12 from a position shifted by a predetermined amount in the moving direction of the trolley 11 from directly above the hanging body 12 can be exemplified. In FIG. 1, such a viewpoint V1 is exemplified as a viewpoint A1 that looks down on the hanging body 12 from a position P1 shifted toward the land side in the X direction, which is the traveling direction of the trolley 11, from the trolley 11. The driver's cab 15 of the crane 1, which is not a normal remote control, is provided at the land side end of the trolley 11, and the driver operates the crane while looking down at the hanging body 12 from the driver's cab. Therefore, by setting the viewpoint looking down on the hanging body 12 from a position shifted by a predetermined amount in the moving direction of the trolley 11 from directly above the hanging body 12, it is possible to A body image 51 is generated.
For example, if the position of the viewpoint V1 and the hanging object 12 is in the positional relationship shown in FIG. 1, the hanging object image 51 generated based on the hanging object model information 41 shown in FIG. The resulting image is shown in FIG. 4(a).
This viewpoint V1 is advantageous in that a driver who is accustomed to operating a conventional crane 1 that is not remotely operated can perform cargo handling operations in the same way as the conventional crane 1.

一方で、例えばこの視点ではスプレッダ13に吊り上げられたコンテナ10がスプレッダ13に隠れて見にくい等の場合は、他の視点でもよい。例えば吊体12を水平方向から見る位置を視点としてもよい。 On the other hand, if the container 10 hoisted by the spreader 13 is hidden by the spreader 13 and difficult to see from this viewpoint, for example, another viewpoint may be used. For example, the viewpoint may be a position where the hanging body 12 is viewed from the horizontal direction.

吊体12を水平方向に近い視点で描画した吊体画像51の例を図4(b)に示す。図4(b)では、図1の視点V2を視点として、吊体モデル情報41を描画した吊体画像51である。視点V2は、視点V1とX,Y座標は同じとし、Z座標をより低くして、吊体12の水平位置近傍とした位置P2から、吊体12を向きA2で見る視点である。 An example of a suspended body image 51 in which the suspended body 12 is drawn from a viewpoint close to the horizontal direction is shown in FIG. 4(b). FIG. 4B shows a hanging object image 51 in which hanging object model information 41 is drawn using the viewpoint V2 in FIG. 1 as a viewpoint. The viewpoint V2 has the same X and Y coordinates as the viewpoint V1, has a lower Z coordinate, and is a viewpoint that looks at the suspended body 12 in the direction A2 from a position P2 near the horizontal position of the suspended body 12.

さらに、吊体12の長手方向側面の真上から吊体12を見下ろす視点も例示できる。
この視点は、図1のX-Y平面上における吊体12の位置関係がそのまま吊体画像51として描写される。そのためスプレッダ13が掴んだコンテナ10を、蔵置されたコンテナ10に着床させる際に、スプレッダ13が掴んだコンテナ10と蔵置されたコンテナ10の側面の画面上における位置が一致すれば水平方向の位置合せが完了する。この構成は、遠隔操作でない従来のクレーン1の運転に慣れていない運転手でも着床の際の水平方向の位置合わせが容易である点で有利である。
Furthermore, a viewpoint looking down on the hanging body 12 from directly above the longitudinal side surface of the hanging body 12 can also be exemplified.
From this viewpoint, the positional relationship of the suspended body 12 on the XY plane in FIG. 1 is depicted as it is as a suspended body image 51. Therefore, when the container 10 gripped by the spreader 13 is placed on the stored container 10, if the positions of the sides of the container 10 gripped by the spreader 13 and the stored container 10 on the screen match, the horizontal position The matching is completed. This configuration is advantageous in that even a driver who is not accustomed to operating a conventional crane 1 that is not remotely operated can easily perform horizontal positioning when landing on the floor.

吊体12が吊体画像51内に描画されるのであれば、視野は任意の範囲を設定できる。具体的な視野は肉眼の視野角以内が好ましい。視野角を肉眼の視野角以内とすることで、遠隔操作でないクレーンの運転室からの運転手の視野と同じ視野で吊体画像51が生成される。そのため遠隔操作でない従来のクレーンの運転に慣れた運転手が、従来のクレーンと同じ感覚で荷役操作を行える。より好ましくは肉眼の有効視野角内である。 If the suspended body 12 is drawn within the suspended body image 51, the field of view can be set to any range. The specific field of view is preferably within the viewing angle of the naked eye. By setting the viewing angle to be within the viewing angle of the naked eye, the suspended object image 51 is generated with the same field of view as the driver's field of view from the operator's cab of a crane that is not remotely operated. Therefore, drivers who are accustomed to operating conventional cranes that are not remotely operated can perform cargo handling operations in the same way as with conventional cranes. More preferably, it is within the effective viewing angle of the naked eye.

なお、吊体画像51は、視点から吊体12を見る向きに垂直な平面に吊体12を投影した画像になる。そのため吊体画像51の生成の際に画像生成手段21は、取得した吊体12の位置座標を座標変換で該投影面に投影し、ピクセル変換した座標を算出する。
また、人間の視野は水平方向に並んだ2つの眼球の視野を重ねたものなので、人間の視野を正確に再現しようとすると、投影面における吊体画像51の外周は水平方向を長軸方向とした楕円に近い形状なる。ただし、吊体画像51が楕円に近い形状の場合は、公知の矩形のモニタを表示手段23に用いた場合に4隅に映像が表示されない部分が生じるため、楕円の内接四角形等を視野としてもよい。
Note that the suspended object image 51 is an image obtained by projecting the suspended object 12 onto a plane perpendicular to the direction in which the suspended object 12 is viewed from the viewpoint. Therefore, when generating the suspended object image 51, the image generation means 21 projects the acquired positional coordinates of the suspended object 12 onto the projection plane by coordinate transformation, and calculates pixel-converted coordinates.
Furthermore, since the human visual field is a superimposition of the visual fields of two horizontally arranged eyeballs, if we try to accurately reproduce the human visual field, the outer periphery of the suspended object image 51 on the projection plane should be aligned with the horizontal direction as the long axis direction. The shape is close to an ellipse. However, if the suspended object image 51 has a shape close to an ellipse, if a known rectangular monitor is used as the display means 23, there will be parts where the image is not displayed at the four corners. Good too.

画像生成手段21は、位置検出信号が示す吊体12の蔵置領域における位置で吊体モデル情報41を描画することで吊体画像51を得る。
この構成では、吊体12がコンテナ10の吊り上げやトロリ11の走行等で、その位置が変動した場合に、変動後の位置で吊体画像51が描画されるため、肉眼で吊体12を見る場合と同様に位置の変動を運転手が吊体画像51で把握できる。
またカメラ映像の場合は映像の視点がカメラの位置に依存するが、本実施形態で吊体画像51を描画する視点は位置検出手段19の設置位置に依存しない点も有利である。
画像生成手段21は、吊体画像51を所定の周期で生成する。この周期は、位置検出信号を取得する際の周期以下が好ましい。これは、位置検出信号が取得した位置情報が必ず吊体画像51に反映されるためである。
The image generation means 21 obtains a suspended object image 51 by drawing the suspended object model information 41 at the position in the storage area of the suspended object 12 indicated by the position detection signal.
In this configuration, when the position of the suspended body 12 changes due to lifting of the container 10 or running of the trolley 11, the suspended body image 51 is drawn at the position after the change, so that the suspended body 12 can be seen with the naked eye. Similarly to the above case, the driver can grasp the change in position from the suspended object image 51.
Further, in the case of a camera image, the viewpoint of the video depends on the position of the camera, but in this embodiment, the viewpoint from which the suspended object image 51 is drawn does not depend on the installation position of the position detection means 19, which is advantageous.
The image generation means 21 generates the suspended object image 51 at a predetermined period. This cycle is preferably equal to or less than the cycle when acquiring the position detection signal. This is because the position information acquired by the position detection signal is always reflected in the suspended object image 51.

ここで、伝送される位置検出信号は主として吊体12の位置情報を有する情報であり、かつ所定の周期で伝送されるので、伝送の際に信号が変換されたとしても変換に要する時間が映像信号と比べて短い。そのため、カメラ等で取得した映像信号を基にして吊体12の映像を生成する場合と比べ、吊体画像51を生成する際の遅延時間が短い。生成する際の遅延時間とは、本実施形態では位置検出信号が取得されてから表示手段23に吊体画像51が表示されるまでに要する時間を意味する。映像の場合、カメラが吊体12の映像を撮像してから表示手段23にその映像が表示されるまでに要する時間が遅延時間である。以下の説明も同様である。 Here, the position detection signal that is transmitted is information that mainly has the position information of the suspended object 12, and is transmitted at a predetermined period, so even if the signal is converted at the time of transmission, the time required for conversion is It is short compared to the signal. Therefore, the delay time when generating the suspended object image 51 is shorter than when the video of the suspended object 12 is generated based on a video signal acquired by a camera or the like. In this embodiment, the delay time during generation means the time required from when the position detection signal is acquired until the suspended object image 51 is displayed on the display means 23. In the case of a video, the time required from when the camera captures the video of the suspended object 12 until the video is displayed on the display means 23 is the delay time. The same applies to the following explanation.

位置検出信号が吊体12の姿勢を含む情報も備える場合、画像生成手段21は位置検出信号が示す吊体12の蔵置領域における位置、姿勢で吊体画像51を生成する。
角速度センサ等で吊体12の中立姿勢に対する傾斜角を求めている場合、位置検出信号が示す吊体12の姿勢に応じて、デカルト座標系の場合、x、y、z軸回りに所定の角度だけ吊体モデル情報41を回転させた画像を吊体画像51として生成する。
一方で、複数の位置センサで検出した位置から吊体12の姿勢を検出する構成の場合は、取得した位置の変動に応じて変動後の位置座標で吊体モデル情報41を描画すれば、吊体12の姿勢を描画できる。
When the position detection signal also includes information including the attitude of the hanging object 12, the image generation means 21 generates the hanging object image 51 at the position and attitude of the hanging object 12 in the storage area indicated by the position detection signal.
When determining the inclination angle of the suspended body 12 with respect to the neutral posture using an angular velocity sensor, etc., depending on the posture of the suspended body 12 indicated by the position detection signal, in the case of a Cartesian coordinate system, a predetermined angle around the x, y, and z axes is determined. An image obtained by rotating the hanging body model information 41 by the amount is generated as a hanging body image 51.
On the other hand, in the case of a configuration in which the posture of the suspended body 12 is detected from the positions detected by multiple position sensors, if the suspended body model information 41 is drawn at the position coordinates after the change according to the fluctuation of the acquired position, the suspended body model information 41 can be The posture of the body 12 can be drawn.

なお、所定の周期で吊体画像51を生成する際には、吊体モデル情報41を全て描画し直してもよい。ただし、位置や姿勢が変動した部分のみを再描画する構成でもよい。図3に示す吊体モデル情報41をモデルにする場合、可動フレーム45が伸縮した場合は、伸縮した可動フレーム45及び可動フレーム45と共に位置が変動するツイストロック保持部47、及びツイストロック49のみを再描画してもよい。 In addition, when generating the suspended object image 51 at a predetermined period, all of the suspended object model information 41 may be redrawn. However, a configuration may also be used in which only the portion whose position or orientation has changed is redrawn. When using the suspension model information 41 shown in FIG. 3 as a model, when the movable frame 45 expands and contracts, only the expanded and contracted movable frame 45, the twist lock holding part 47 whose position changes with the movable frame 45, and the twist lock 49 are May be redrawn.

運転支援システム27が荷役対象位置取得手段25を備える場合、画像生成手段21は荷役対象位置取得手段25が取得した荷役対象情報を基に、荷役対象モデル情報を描画した荷役対象画像を生成してもよい。この場合、荷役対象画像を吊体画像51に重ねた画像が処理画像81として生成される。
荷役対象モデル情報とは、画像生成手段21が荷役対象画像を生成する際のモデルであり、具体的には荷役対象の外形を示す情報である。荷役対象がコンテナ10である場合、コンテナ10の外形を示す静止画である。
When the driving support system 27 includes the cargo handling object position acquisition means 25, the image generation means 21 generates a cargo handling object image in which cargo handling object model information is drawn based on the cargo handling object information acquired by the cargo handling object position acquisition means 25. Good too. In this case, an image in which the cargo handling object image is superimposed on the suspended object image 51 is generated as the processed image 81.
The cargo handling object model information is a model used when the image generation means 21 generates a cargo handling object image, and specifically is information indicating the external shape of the cargo handling object. When the cargo handling target is a container 10, this is a still image showing the outer shape of the container 10.

荷役対象モデル情報61の例を図5に示す。図5に示す荷役対象モデル情報61は、ドライコンテナの外形を示すモデルであり、箱体63、扉65、長孔67、及びコンテナ識別番号表示領域69の外形が少なくとも描写されている。
箱体63はコンテナ10の外壁であり、ここでは外形が直方体に近い形状である。扉65はコンテナ10内に貨物を搬入する場合、又はコンテナ10内の貨物を搬出する際に開放される外壁の少なくとも1面であり、図5では直方体の正方形を構成する側面に設けられる。長孔67はスプレッダ13がコンテナ10を吊り上げる際にツイストロック49が挿入される孔であり、ここでは箱体63の上面の四隅に設けられ、長手方向はコンテナ10の長手方向であるY方向に沿う。コンテナ識別番号表示領域69はコンテナ10の識別番号が表示される部分である。
An example of the cargo handling object model information 61 is shown in FIG. The cargo handling object model information 61 shown in FIG. 5 is a model showing the external shape of a dry container, and at least the external shapes of a box body 63, a door 65, a long hole 67, and a container identification number display area 69 are depicted.
The box body 63 is an outer wall of the container 10, and here the outer shape is close to a rectangular parallelepiped. The door 65 is at least one side of the outer wall that is opened when carrying cargo into the container 10 or carrying out cargo inside the container 10, and in FIG. 5, it is provided on a side surface forming a square of a rectangular parallelepiped. The long holes 67 are holes into which the twist locks 49 are inserted when the spreader 13 lifts the container 10, and here they are provided at the four corners of the top surface of the box body 63, and the longitudinal direction is in the Y direction, which is the longitudinal direction of the container 10. Follow. The container identification number display area 69 is an area where the identification number of the container 10 is displayed.

荷役対象モデル情報61は吊体モデル情報41と同様に、三次元形状を示す情報であるのが好ましい。サイズの異なるコンテナ10が蔵置領域に混在する場合等、荷役対象の種類が複数ある場合、荷役対象モデル情報61は吊体モデル情報41と同様に荷役対象の種類ごとに予め画像生成手段21が保持する情報であるのが好ましい。 Like the hanging body model information 41, the cargo handling object model information 61 is preferably information indicating a three-dimensional shape. When there are multiple types of cargo handling objects, such as when containers 10 of different sizes are mixed in the storage area, the image generation means 21 holds the cargo handling object model information 61 in advance for each type of cargo handling object, similar to the hanging body model information 41. Preferably, the information is

荷役対象モデル情報61は、吊体モデル情報41と同様、画像が荷役対象であることが分かる画像であれば、外形線の一部を省略する等して実際の荷役対象の映像よりも情報量が少ない画像としてもよい。例えば一般にコンテナ10は強度を確保するために側壁を波形に曲げ加工したコルゲート形状を有するが、図5に示す荷役対象モデル情報61では、コルゲート形状は省略されている。ただし、荷役対象モデル情報61は吊体画像51と同様に、映像と同程度に荷役対象の外形を把握できる情報量でもよい。荷役対象モデル情報61は吊体モデル情報41と同様に透明あるいは半透明な画像でもよい。 Similar to the suspended object model information 41, the cargo handling object model information 61 can be used to reduce the amount of information by omitting part of the outline if the image shows that it is a cargo handling object. It is also possible to use an image with a small number of images. For example, the container 10 generally has a corrugated shape with side walls bent into a corrugated shape to ensure strength, but the corrugated shape is omitted in the cargo handling object model information 61 shown in FIG. 5. However, similarly to the suspended object image 51, the cargo handling object model information 61 may have an amount of information that allows the user to grasp the external shape of the cargo handling object to the same extent as a video. The cargo handling object model information 61 may be a transparent or semi-transparent image like the hanging body model information 41.

画像生成手段21は荷役対象位置取得手段25が取得した荷役対象情報を基に、荷役対象モデル情報61を描画した荷役対象画像71を生成する。荷役対象画像71を描画する際の視点、視野は吊体画像51と同じとするのが好ましい。吊体画像51と荷役対象画像71の視点、視野を同じとすることで、吊体画像51と荷役対象画像71をさらに座標変換や拡大縮小処理をせずにそのまま重ねることができる。
図1におけるコンテナ船48の暴露甲板93上に配置されたコンテナ10の荷役対象情報を基に、図1の視点V1で荷役対象モデル情報61を描画した荷役対象画像71の例を図6(a)に示す。また、図5(a)に示す吊体画像51と、図6(a)に示す荷役対象画像71を重ねることで生成された処理画像81の例を図6(b)に示す。
The image generation means 21 generates a cargo handling object image 71 in which cargo handling object model information 61 is drawn based on the cargo handling object information acquired by the cargo handling object position acquisition means 25. It is preferable that the viewpoint and field of view when drawing the cargo handling object image 71 are the same as those of the suspended object image 51. By making the viewpoint and field of view of the hanging object image 51 and the cargo handling object image 71 the same, the hanging object image 51 and the cargo handling object image 71 can be directly overlapped without further coordinate conversion or scaling processing.
An example of a cargo handling object image 71 in which cargo handling object model information 61 is drawn at the viewpoint V1 in FIG. 1 based on the cargo handling object information of the container 10 placed on the exposed deck 93 of the container ship 48 in FIG. ). Further, FIG. 6(b) shows an example of a processed image 81 generated by overlapping the suspended object image 51 shown in FIG. 5(a) and the cargo handling target image 71 shown in FIG. 6(a).

画像生成手段21が荷役対象画像71を生成して吊体画像51に重ねた画像を処理画像81として生成することで、図6(b)に示すように蔵置されたコンテナ10の蔵置領域における位置を示す情報から荷役対象画像71が吊体画像51に重ねて描画される。荷役対象画像71及び処理画像81の生成の周期は、制御信号の遅延時間以下が好ましく、位置検出手段19が吊体12の位置を取得する際のサンプリング周期と同程度が、より好ましい。
この構成では、図6(b)に示す、荷役対象画像71に含まれるコンテナ10と、吊体12との位置関係を示す処理画像81が、実際にコンテナ10と吊体12がその位置関係にあるタイミングで描画される。そのため、コンテナ10と吊体12の位置関係に基づく適切な荷役操作ができる。
例えばスプレッダ13が吊り上げたコンテナ10を、暴露甲板93内にあるコンテナ10の上に蔵置する作業を運転手が行うとする。この際、吊体12に振れが生じている場合、吊体12が所定の振れ角に達した時点で運転手が吊体12を動作させることで、振れを抑制したり、吊り上げたコンテナ10を目標位置に着床したりする場合がある。
ここで、画像生成手段21が荷役対象画像71を生成して吊体画像51に重ねた画像を処理画像81として生成する場合、吊体12が所定の振れ角に達した時点で、その振れ角に対応する位置と姿勢で処理画像81が生成される。
そのため、処理画像81に基づき、吊体12が実際に所定の振れ角に達した時点でクレーン1を運転手が動作させることが可能になる。
The image generating means 21 generates the cargo handling object image 71 and superimposes it on the suspended object image 51 as the processed image 81, thereby determining the position of the stored container 10 in the storage area as shown in FIG. 6(b). A cargo handling object image 71 is drawn superimposed on the suspended object image 51 based on the information indicating. The period of generation of the cargo handling object image 71 and the processed image 81 is preferably equal to or less than the delay time of the control signal, and more preferably approximately the same as the sampling period when the position detecting means 19 acquires the position of the suspended body 12.
In this configuration, the processed image 81 showing the positional relationship between the container 10 and the hanging body 12 included in the cargo handling target image 71 shown in FIG. drawn at a certain time. Therefore, appropriate cargo handling operations can be performed based on the positional relationship between the container 10 and the hanging body 12.
For example, assume that the driver performs the task of storing the container 10 lifted by the spreader 13 on top of the container 10 on the exposed deck 93. At this time, if the hanging body 12 is swinging, the driver can operate the hanging body 12 when the hanging body 12 reaches a predetermined swing angle to suppress the swing or move the lifted container 10. It may land at the target position.
Here, when the image generation means 21 generates the cargo handling object image 71 and generates an image superimposed on the hanging body image 51 as the processed image 81, when the hanging body 12 reaches a predetermined swing angle, the swing angle A processed image 81 is generated with a position and orientation corresponding to .
Therefore, based on the processed image 81, the driver can operate the crane 1 when the hanging body 12 actually reaches a predetermined swing angle.

画像生成手段21は、荷役対象画像71を吊体画像51に所定の視点から距離が近い順に裏側に重ねた画像を処理画像81として生成するのが好ましい。
例えば吊体12の位置と、暴露甲板93上のコンテナ10a、10b、及び視点V1の位置関係、及び視野角αが図6(a)及び図7に示す関係にあるとする。
この場合、吊体12とコンテナ10a、10bを比較すると、図7に示すように視点V1からの距離が最も近いのは吊体12である。そのため、吊体12が最前面に描画される。さらに、吊体12の裏側にコンテナ10a、10bが重ねられることで、図6(b)に示す処理画像81が生成される。なお、図7の破線L1、L2は視点V1から吊体12を見た場合の吊体12のZ方向の両端部と視点V1の立脚点である位置P1を結ぶ直線である。領域R3は吊体12に隠れて視点V1から見えない領域である。コンテナ10aの一部はこの領域R3内に位置するため、図6(b)に示す処理画像81にはコンテナ10aの一部しか表示されない。コンテナ10bはこの領域R3内に全体が位置するので、図6(b)に示す処理画像81にはコンテナ10bは表示されていない。
It is preferable that the image generation means 21 generates, as the processed image 81, an image in which the cargo handling object image 71 is superimposed on the back side of the suspended object image 51 in order of distance from a predetermined viewpoint.
For example, it is assumed that the position of the hanging body 12, the positional relationships among the containers 10a, 10b on the exposure deck 93, and the viewpoint V1, and the viewing angle α have the relationships shown in FIGS. 6(a) and 7.
In this case, when comparing the hanging body 12 and the containers 10a and 10b, as shown in FIG. 7, the hanging body 12 is the closest in distance from the viewpoint V1. Therefore, the hanging body 12 is drawn at the forefront. Furthermore, by overlapping the containers 10a and 10b on the back side of the hanging body 12, a processed image 81 shown in FIG. 6(b) is generated. Note that broken lines L1 and L2 in FIG. 7 are straight lines connecting both ends of the hanging body 12 in the Z direction when the hanging body 12 is viewed from the viewpoint V1 and position P1, which is the stance point of the viewpoint V1. The region R3 is hidden by the hanging body 12 and is not visible from the viewpoint V1. Since a portion of the container 10a is located within this region R3, only a portion of the container 10a is displayed in the processed image 81 shown in FIG. 6(b). Since the container 10b is entirely located within this region R3, the container 10b is not displayed in the processed image 81 shown in FIG. 6(b).

このように、荷役対象画像71を吊体画像51に所定の視点から距離が近い順に裏側に重ねることで、視点V1からスプレッダ13及びコンテナ10a、10bを目視した場合と同じ位置関係で構造物が描画される。そのため、視点V1から見て他の構造物への視界を遮る構造物が把握できる。例えば図6(b)に示す処理画像81では、コンテナ10aの一部が吊体12に遮られて見えないのが分かる。
なお、処理画像81を描画する際に荷役対象画像71と吊体画像51を生成する順番は任意に設定できる。例えば所定の視点から距離が遠い順に荷役対象画像71と吊体画像51を生成して表側に重ねた画像を処理画像81として生成してもよい。
In this way, by overlaying the cargo handling object image 71 on the back side of the suspended object image 51 in order of distance from a predetermined viewpoint, the structure can be seen in the same positional relationship as when the spreader 13 and containers 10a, 10b are visually observed from the viewpoint V1. be drawn. Therefore, structures that block the view of other structures when viewed from the viewpoint V1 can be recognized. For example, in the processed image 81 shown in FIG. 6(b), it can be seen that a part of the container 10a is blocked by the hanging body 12 and cannot be seen.
Note that when drawing the processed image 81, the order in which the cargo handling object image 71 and the suspended object image 51 are generated can be set arbitrarily. For example, the cargo handling object image 71 and the suspended object image 51 may be generated in descending order of distance from a predetermined viewpoint, and an image overlaid on the front side may be generated as the processed image 81.

運転支援システム27が移動体位置取得手段29を備える場合、画像生成手段21は移動体位置取得手段29が取得した移動体情報を基に処理画像81を生成してもよい。具体的には、移動体情報を基に移動体モデル情報を描画した移動体画像を生成して吊体画像51に重ねた画像を処理画像81として生成してもよい。
移動体モデル情報とは、画像生成手段21が移動体画像を生成する際のモデルであり、具体的には移動体の外形を示す情報である。移動体がコンテナ船48の場合、移動体モデル情報はコンテナ船48のコンテナ10を蔵置する暴露甲板93の位置と形状、暴露甲板93に蔵置したラッシングブリッジ95の位置と形状等である。また、コンテナ10を蔵置する船倉や、船倉内に設けられ、コンテナ10を蔵置する際のガイドとなるセルガイドの位置も挙げられる。移動体が作業員の場合は、作業員の外観や位置を示す情報である。移動体がシャシである場合、シャシの外形を示す静止画が挙げられる。
When the driving support system 27 includes the mobile body position acquisition means 29, the image generation means 21 may generate the processed image 81 based on the mobile body information acquired by the mobile body position acquisition means 29. Specifically, a moving object image in which moving object model information is drawn based on the moving object information may be generated and an image superimposed on the suspended object image 51 may be generated as the processed image 81.
The moving body model information is a model used when the image generation means 21 generates a moving body image, and specifically is information indicating the external shape of the moving body. When the moving body is a container ship 48, the moving body model information includes the position and shape of the exposed deck 93 on which the containers 10 of the container ship 48 are stored, the position and shape of the lashing bridge 95 stored on the exposed deck 93, and the like. Other examples include the position of a ship hold in which the container 10 is stored and a cell guide that is provided in the ship hold and serves as a guide when the container 10 is stored. If the moving object is a worker, this is information indicating the appearance and position of the worker. If the moving object is a chassis, a still image showing the outer shape of the chassis may be used.

移動体モデル情報の例を図8に示す。図8の移動体モデル情報91は、コンテナ船48の甲板上の外形を示すもので、暴露甲板93及びラッシングブリッジ95が描画されている。移動体モデル情報91は、吊体モデル情報41と同様に、三次元形状を示す情報であるのが好ましい。移動体の種類が複数ある場合、移動体モデル情報は移動体の種類ごとに予め画像生成手段21が保持する情報であるのが好ましい。
例えば、図8では移動体モデル情報91aとして作業員の外形を示す情報も示している。ただし、移動体モデル情報91と移動体モデル情報91aは別のモデル情報であり、別箇に画像生成手段21が有している。
FIG. 8 shows an example of mobile model information. The mobile body model information 91 in FIG. 8 shows the external shape on the deck of the container ship 48, and includes an exposed deck 93 and a lashing bridge 95. It is preferable that the moving body model information 91 is information indicating a three-dimensional shape, similar to the hanging body model information 41. When there are multiple types of moving objects, it is preferable that the moving object model information is information held in advance by the image generation means 21 for each type of moving object.
For example, in FIG. 8, information indicating the external shape of the worker is also shown as mobile body model information 91a. However, the mobile object model information 91 and the mobile object model information 91a are different model information, and are separately held by the image generation means 21.

移動体モデル情報91、91aは、画像が移動体であることが分かる程度の情報量であれば、吊体画像51と同様に実際の移動体の映像よりも情報量が少ない画像でもよい。移動体モデル情報91、91aは吊体モデル情報41と同様に透明あるいは半透明な画像でもよい。 The moving object model information 91, 91a may be an image with a smaller amount of information than the actual moving object image, similar to the suspended object image 51, as long as the amount of information is sufficient to show that the image is a moving object. The moving body model information 91, 91a may be a transparent or semi-transparent image like the hanging body model information 41.

画像生成手段21は移動体情報を基に、移動体モデル情報91、91aを描画した移動体画像を生成する。移動体画像を描画する際の視点、視野は吊体画像51と同じとするのが好ましい。理由は吊体画像51を描画する場合と同様である。描画の周期も吊体画像51を生成する周期以下とするのが好ましい。 The image generation means 21 generates a moving object image in which moving object model information 91, 91a is drawn based on the moving object information. It is preferable that the viewpoint and field of view when drawing the moving object image are the same as those of the suspended object image 51. The reason is the same as when drawing the suspended object image 51. It is also preferable that the drawing period be equal to or less than the period for generating the suspended object image 51.

図1におけるコンテナ船48の移動体情報を基に、図1の視点V1で移動体画像99を描画して吊体画像51及び荷役対象画像71に重ねて処理画像81を生成した例を図9に示す。画像生成手段21が移動体画像99を吊体画像51に重ねた画像を処理画像81として生成することで、蔵置領域における移動体の位置を示す情報から移動体画像99が吊体画像51に重ねて描画される。そのため蔵置領域を移動する移動体と吊体12との位置関係を示す画像が、実際にその位置関係にあるタイミングで描画され、位置関係に基づく適切な荷役操作ができる。特に移動体がコンテナ船48の場合、サージング等による暴露甲板93の移動を反映した処理画像81を生成できる。
画像生成手段21が移動体画像99を生成する際は、荷役対象画像71を吊体画像51に重ねる場合と同様に移動体画像99を吊体画像51に所定の視点から距離が近い順に裏側に重ねた画像を処理画像81として生成するのが好ましい。
FIG. 9 shows an example in which a moving object image 99 is drawn at the viewpoint V1 in FIG. 1 based on the moving object information of the container ship 48 in FIG. Shown below. The image generation means 21 generates an image in which the moving object image 99 is superimposed on the hanging object image 51 as the processed image 81, so that the moving object image 99 is superimposed on the hanging object image 51 based on the information indicating the position of the moving object in the storage area. is drawn. Therefore, an image showing the positional relationship between the movable body moving in the storage area and the hanging body 12 is drawn at a timing when the positional relationship actually exists, and an appropriate cargo handling operation can be performed based on the positional relationship. In particular, when the moving object is a container ship 48, a processed image 81 that reflects the movement of the exposed deck 93 due to surging or the like can be generated.
When the image generation means 21 generates the moving object images 99, similarly to the case where the cargo handling object image 71 is superimposed on the hanging object image 51, the moving object images 99 are placed on the back side of the hanging object image 51 in descending order of distance from a predetermined viewpoint. It is preferable to generate a superimposed image as the processed image 81.

画像生成手段21は吊体画像51、荷役対象画像71、及び移動体画像99に、これらの画像以外の画像や文字を含む画像を重ねて処理画像81を生成してもよい。このような、吊体画像51、荷役対象画像71、及び移動体画像99以外の画像である補助画像の例を図10に示す。図10に示すように補助画像101は、運転室画像103、クレーンステータス表示画像105、強調表示画像107を備える。 The image generation means 21 may generate the processed image 81 by superimposing images other than these images or images containing characters on the suspended object image 51, the cargo handling object image 71, and the moving object image 99. An example of such an auxiliary image, which is an image other than the suspended object image 51, the cargo handling object image 71, and the moving object image 99, is shown in FIG. As shown in FIG. 10, the auxiliary image 101 includes a driver's cab image 103, a crane status display image 105, and a highlighted display image 107.

運転室画像103は、視点V1のように、遠隔操作でない従来のクレーンの運転室から見た視野で処理画像81を生成する際に、運転手から見た運転室内の内装を示す画像である。クレーンステータス表示画像105は、クレーンの運転の際に運転手が参照する数値や文字、図形等の情報を表示する部分である。具体的な情報としては、スプレッダ13が吊り上げているコンテナ10、あるいは吊り上げようとしているコンテナ10の識別番号が挙げられる。あるいは、クレーン1の主巻/横行/走行/旋回等の動作や速度のような、実行中の荷役作業を示す文字、図形も挙げられる。さらに、クレーン1の下にシャシが存在する場合はそのシャシのトレーラ位置情報が挙げられる。
また、図1の領域R1にコンテナ10の蔵置ブロックやシャシの走行レーンのような、固定設置物がある場合、その外観を示す画像や映像も補助画像101に含まれる。
The operator's cabin image 103 is an image showing the interior of the operator's cabin as seen from the driver when the processed image 81 is generated from a field of view seen from the operator's cabin of a conventional crane that is not remotely operated, such as the viewpoint V1. The crane status display image 105 is a portion that displays information such as numerical values, characters, and graphics that the driver refers to when operating the crane. Specific information includes the identification number of the container 10 that is being lifted by the spreader 13 or the container 10 that is about to be lifted. Alternatively, characters and figures indicating the cargo handling operation in progress, such as the main hoisting/traversing/traveling/turning operations and speed of the crane 1, may also be used. Further, if a chassis exists under the crane 1, information on the trailer position of the chassis is included.
Furthermore, if there is a fixed installation such as a storage block for the container 10 or a driving lane for a chassis in the area R1 in FIG.

強調表示画像107は処理画像81中の所定の画像を強調表示する画像である。ここでは処理画像81中の移動体画像99の1つである作業員の画像の周囲を2重丸で囲むことで、その位置を強調する画像を例示する画像である。
作業員の画像は移動体画像99の一つとして処理画像81中に表示することは可能である。しかしながら図1や図10に示すように、処理画像81を生成する際の視点V1が、トロリ11と同程度の高さにある場合、蔵置領域内を移動する作業員と視点V1の立脚点である位置P1の距離が極めて遠くなる。そのため、処理画像81中の作業員の表示サイズが小さすぎて見難い場合がある。そこで強調表示画像107を用いて作業員の画像の周囲を強調表示すると、処理画像中における作業員の位置を見やすくできる。
補助画像101を生成する際の視点は吊体画像51を生成する際の視点と同様としてもよいし、視点に関係なく表示してもよい。また、補助画像101を生成するタイミングは吊体画像51を生成するタイミングと同じとするのが好ましい。
The highlighted image 107 is an image that highlights a predetermined image in the processed image 81. This image is an example of an image in which an image of a worker, which is one of the moving object images 99 in the processed image 81, is surrounded by a double circle to emphasize its position.
The image of the worker can be displayed in the processed image 81 as one of the moving object images 99. However, as shown in FIGS. 1 and 10, when the viewpoint V1 when generating the processed image 81 is at the same height as the trolley 11, the worker moving in the storage area and the viewpoint V1 are the standing points. The distance of position P1 becomes extremely long. Therefore, the display size of the worker in the processed image 81 may be too small and difficult to see. Therefore, by highlighting the area around the image of the worker using the highlighted display image 107, the position of the worker in the processed image can be easily seen.
The viewpoint when generating the auxiliary image 101 may be the same as the viewpoint when generating the suspended object image 51, or it may be displayed regardless of the viewpoint. Further, it is preferable that the timing of generating the auxiliary image 101 is the same as the timing of generating the suspended object image 51.

画像生成手段21は、処理画像81を所定の周期以下で生成できる構成であれば、公知のコンピュータを用い、コンピュータの記憶部に、吊体モデル情報41、荷役対象モデル情報61、移動体モデル情報91、補助画像101を記憶する構成にすればよい。
ただし、吊体モデル情報41、荷役対象モデル情報61、移動体モデル情報91、及び補助画像101は必要に応じて外部記憶装置や、ネットワークから取得してもよい。
The image generation means 21 uses a known computer as long as it can generate the processed image 81 within a predetermined period, and stores the hanging object model information 41, cargo handling object model information 61, and moving object model information in the storage section of the computer. 91 and the auxiliary image 101 may be stored.
However, the hanging body model information 41, cargo handling object model information 61, moving body model information 91, and auxiliary image 101 may be acquired from an external storage device or a network as necessary.

図1及び図2に示す表示手段23は、処理画像81を表示する装置であり、画像生成手段21に接続される。処理画像81を表示できるのであれば表示手段23は公知のモニタ等を適宜用いればよい。表示手段23における処理画像81の表示領域は、処理画像81を運転手が見やすい範囲で適宜設定すればよい。 The display means 23 shown in FIGS. 1 and 2 is a device that displays the processed image 81, and is connected to the image generation means 21. As long as the processed image 81 can be displayed, a known monitor or the like may be used as the display means 23 as appropriate. The display area of the processed image 81 on the display means 23 may be appropriately set within a range where the processed image 81 can be easily viewed by the driver.

次に図11及び図12を参照して本実施形態に係るクレーン1の運転支援システム27を用いた運転支援方法について説明する。
まず、運転支援システム27の各構成に対応する装置の電源をONにして運転支援システム27を起動する(図11のS0)。
Next, a driving support method using the driving support system 27 for the crane 1 according to the present embodiment will be described with reference to FIGS. 11 and 12.
First, the power of devices corresponding to each component of the driving support system 27 is turned on to start the driving support system 27 (S0 in FIG. 11).

次に、位置検出手段19は吊体12の位置を予め定められた所定の周期で検出して、検出結果を示す位置検出信号を生成する(図11のS1、位置検出工程)。
位置検出手段19が吊体12の位置の検出を開始する始期は適宜設定できる。例えば位置検出手段19が動作可能になった時点で検出を開始してもよい。画像生成手段21等が位置検出手段19に検出開始の指示を示す信号を送信し、この信号を位置検出手段19が受信した時点で検出を開始してもよい。位置検出信号が生成されると、位置検出手段19は位置検出信号を画像生成手段21に送信する。
運転支援システム27が荷役対象位置取得手段25を備える場合、荷役対象位置取得手段25は、荷役対象情報を取得する(図11のS2)。取得した荷役対象情報は画像生成手段21に送信される。
運転支援システム27が移動体位置取得手段29を備える場合、移動体位置取得手段29は、移動体情報を取得する(図11のS3)。取得した移動体情報は画像生成手段21に送信される。
運転支援システム27が補助画像101を処理画像81に表示する場合、補助画像101の表示に必要な情報も取得する(図11のS4)。補助画像101の表示に必要な情報とは、例えば補助画像101がクレーンステータスを表示する場合、クレーンステータスである。
S1~S4の順番は任意に設定できる。S1~S4は平行して実施してもよい。
Next, the position detecting means 19 detects the position of the suspended body 12 at a predetermined period, and generates a position detection signal indicating the detection result (S1 in FIG. 11, position detection step).
The starting time at which the position detection means 19 starts detecting the position of the suspended body 12 can be set as appropriate. For example, detection may be started when the position detection means 19 becomes operational. The image generating means 21 or the like may transmit a signal indicating an instruction to start detection to the position detecting means 19, and the detection may be started when the position detecting means 19 receives this signal. When the position detection signal is generated, the position detection means 19 transmits the position detection signal to the image generation means 21.
When the driving support system 27 includes the cargo handling object position acquisition means 25, the cargo handling object position acquisition means 25 acquires the cargo handling object information (S2 in FIG. 11). The acquired cargo handling object information is transmitted to the image generation means 21.
When the driving support system 27 includes the mobile body position acquisition means 29, the mobile body position acquisition means 29 acquires the mobile body information (S3 in FIG. 11). The acquired moving object information is transmitted to the image generation means 21.
When the driving support system 27 displays the auxiliary image 101 on the processed image 81, information necessary for displaying the auxiliary image 101 is also acquired (S4 in FIG. 11). The information necessary for displaying the auxiliary image 101 is, for example, the crane status when the auxiliary image 101 displays the crane status.
The order of S1 to S4 can be set arbitrarily. S1 to S4 may be performed in parallel.

次に、画像生成手段21は、位置検出信号が示す吊体12の蔵置領域における位置で、かつ所定の視点及び所定の視野で、吊体モデル情報41を描画した画像である吊体画像51を所定の周期で生成する(図11のS5、画像生成工程)。スプレッダ13の種類が複数ある場合は、位置検出信号に含まれるスプレッダ13の種類の情報を基に、対応する吊体モデル情報41を画像生成手段21が選択して吊体画像51を生成する。
S2を実施している場合、画像生成手段21は、荷役対象情報が示す位置で、かつ所定の視点及び所定の視野で荷役対象モデル情報61を描画した荷役対象画像71を生成する(図11のS6)。この際、荷役対象が複数種類存在する場合は、荷役対象情報に含まれる荷役対象の種類の情報を基に、対応する荷役対象モデル情報61を画像生成手段21が選択して荷役対象画像71を生成する。
S3を実施している場合、画像生成手段21は、移動体情報が示す位置で、かつ所定の視点及び所定の視野で移動体モデル情報91を描画した移動体画像99を生成する(図11のS7)。移動体が複数存在する場合は、移動体情報に含まれる移動体の種類の情報を基に、対応する移動体モデル情報91を画像生成手段21が選択して移動体画像99を生成する。
S4を実施している場合、画像生成手段21は、補助画像用の情報を基に対応する補助画像101を生成する(図11のS8)。
S5~S8の順番は任意に設定できる。S5~S8は平行して実施してもよい。
Next, the image generation means 21 generates a suspended object image 51, which is an image in which the suspended object model information 41 is drawn at the position in the storage area of the suspended object 12 indicated by the position detection signal, and at a predetermined viewpoint and a predetermined field of view. It is generated at a predetermined cycle (S5 in FIG. 11, image generation step). When there are multiple types of spreaders 13, the image generation means 21 selects the corresponding suspended body model information 41 based on the information on the types of spreaders 13 included in the position detection signal, and generates the suspended body image 51.
When performing S2, the image generation means 21 generates a cargo handling object image 71 in which the cargo handling object model information 61 is drawn at the position indicated by the cargo handling object information and at a predetermined viewpoint and a predetermined field of view (see FIG. 11). S6). At this time, if there are multiple types of cargo handling objects, the image generation means 21 selects the corresponding cargo handling object model information 61 based on the information on the types of cargo handling objects included in the cargo handling object information, and generates the cargo handling object image 71. generate.
When performing S3, the image generation means 21 generates a moving object image 99 in which the moving object model information 91 is drawn at the position indicated by the moving object information and at a predetermined viewpoint and a predetermined field of view (see FIG. 11). S7). When a plurality of moving objects exist, the image generation means 21 selects the corresponding moving object model information 91 based on the information on the type of moving object included in the moving object information, and generates the moving object image 99.
When performing S4, the image generation means 21 generates the corresponding auxiliary image 101 based on the information for the auxiliary image (S8 in FIG. 11).
The order of S5 to S8 can be set arbitrarily. S5 to S8 may be performed in parallel.

次に、画像生成手段21は吊体画像51、荷役対象画像71、移動体画像99、及び補助画像101を所定の視点から距離が近い順に裏側に重ねて所定の周期以下で処理画像81を生成する(図11のS9)。生成した処理画像81は表示手段23に送信される。吊体画像51、荷役対象画像71、移動体画像99、及び補助画像101を図1の視点V1で生成して重ねた処理画像81の例を図12に示す。
最後に、処理画像81を受信した表示手段23は、処理画像81を表示する(図11のS10、表示工程)。
Next, the image generation means 21 stacks the suspended object image 51, the cargo handling object image 71, the moving object image 99, and the auxiliary image 101 on the back side in order of distance from a predetermined viewpoint, and generates a processed image 81 at a predetermined cycle or less. (S9 in FIG. 11). The generated processed image 81 is transmitted to the display means 23. FIG. 12 shows an example of a processed image 81 in which the suspended object image 51, the cargo handling object image 71, the moving object image 99, and the auxiliary image 101 are generated and superimposed at the viewpoint V1 in FIG. 1.
Finally, the display means 23 that has received the processed image 81 displays the processed image 81 (S10 in FIG. 11, display step).

このように本実施形態では、運転支援システム27が位置検出手段19、画像生成手段21、及び表示手段23を備える。この構成では吊体モデル情報41に、位置検出手段19から所定の周期で入力された位置検出信号を基に吊体12の現在位置情報を反映させた吊体画像51が生成される。
そのため、伝送の際に位置検出信号が変換されたとしても変換に要する時間が短く、映像信号を基にして吊体12の映像を表示する場合と比べ、表示の遅延時間が短い。
よって、表示手段23に表示される吊体12の画像に遅延が生じ難い。
As described above, in this embodiment, the driving support system 27 includes the position detection means 19, the image generation means 21, and the display means 23. In this configuration, a suspended object image 51 is generated in which current position information of the suspended object 12 is reflected in the suspended object model information 41 based on a position detection signal input from the position detecting means 19 at a predetermined period.
Therefore, even if the position detection signal is converted during transmission, the time required for conversion is short, and the display delay time is short compared to the case where the image of the hanging object 12 is displayed based on a video signal.
Therefore, the image of the suspended body 12 displayed on the display means 23 is unlikely to be delayed.

1 クレーン
3 支持構造体
5 レール
7 走行装置
8 ワイヤ
9 桁
10、10a、10b コンテナ
11 トロリ
12 吊体
13 スプレッダ
15 運転室
19 位置検出手段
19a 位置センサ
21 画像生成手段
23 表示手段
25 荷役対象位置取得手段
25a 位置センサ
25b 入出力インタフェース
27 運転支援システム
29 移動体位置取得手段
29a 位置センサ
29b 入出力インタフェース
30 TOS
41 吊体モデル情報
43 固定フレーム
45 可動フレーム
47 ツイストロック保持部
48 コンテナ船
49 ツイストロック
51 吊体画像
61 荷役対象モデル情報
63 箱体
65 扉
67 長孔
69 コンテナ識別番号表示領域
71 荷役対象画像
81 処理画像
91、91a 移動体モデル情報
93 暴露甲板
95 ラッシングブリッジ
99 移動体画像
101 補助画像
103 運転室画像
105 クレーンステータス表示画像
107 強調表示画像
1 Crane 3 Support structure 5 Rail 7 Traveling device 8 Wire 9 Girder 10, 10a, 10b Container 11 Trolley 12 Hanging body 13 Spreader 15 Cab 19 Position detection means 19a Position sensor 21 Image generation means 23 Display means 25 Obtaining cargo handling target position Means 25a Position sensor 25b Input/output interface 27 Driving support system 29 Mobile object position acquisition means 29a Position sensor 29b Input/output interface 30 TOS
41 Hanging body model information 43 Fixed frame 45 Movable frame 47 Twist lock holding part 48 Container ship 49 Twist lock 51 Hanging body image 61 Cargo handling target model information 63 Box body 65 Door 67 Long hole 69 Container identification number display area 71 Cargo handling target image 81 Processed images 91, 91a Mobile object model information 93 Exposure deck 95 Lashing bridge 99 Mobile object image 101 Auxiliary image 103 Cab image 105 Crane status display image 107 Highlighted display image

Claims (9)

支持構造体と、前記支持構造体に支持されて荷役対象を蔵置領域から吊り上げる吊具を備えるクレーンの運転を支援する運転支援システムであって、
前記荷役対象を掴んでいない状態の前記吊具、又は、前記荷役対象を掴んだ状態の前記吊具とその掴まれた前記荷役対象を、吊体として、
前記吊体の位置及び姿勢を予め定められた所定の周期で検出して、検出結果を示す位置検出信号を生成する位置検出手段と、
前記位置検出手段に接続されて前記位置検出信号が入力され、前記位置検出信号が示す前記吊体の前記蔵置領域における位置及び姿勢で、かつ所定の視点及び所定の視野で前記吊体を示す画像情報である吊体モデル情報を描画した画像である吊体画像を含む画像である処理画像を前記所定の周期以下の周期で生成する画像生成手段と、
前記画像生成手段に接続され、前記処理画像を表示する表示手段と、
を備えていて、
前記吊体画像は、前記吊具のトリムおよびリストおよびスキューと、前記吊具の振れ角とが前記姿勢として反映されていることを特徴とするクレーンの運転支援システム。
An operation support system for supporting the operation of a crane comprising a support structure and a lifting device supported by the support structure to lift a cargo handling object from a storage area, the system comprising:
The lifting tool in a state in which the cargo handling object is not gripped, or the lifting tool in a state in which the cargo handling object is gripped and the grabbed cargo handling object is used as a hanging body,
a position detection means that detects the position and orientation of the hanging body at a predetermined period and generates a position detection signal indicating the detection result;
An image connected to the position detection means to which the position detection signal is input, and showing the suspended body at the position and orientation of the suspended body in the storage area indicated by the position detection signal, and at a predetermined viewpoint and a predetermined field of view. image generating means for generating a processed image, which is an image including a suspended body image, which is an image depicting suspended body model information, which is information, at a cycle equal to or less than the predetermined cycle;
a display means connected to the image generation means and displaying the processed image;
It is equipped with
The crane driving support system is characterized in that the hanging object image reflects the trim, wrist, and skew of the hanging tool, and the deflection angle of the hanging tool as the attitude.
前記画像生成手段に接続され、前記蔵置領域に蔵置された前記荷役対象の前記蔵置領域における位置を含む情報である荷役対象情報を取得する荷役対象位置取得手段を備え、
前記画像生成手段は、前記荷役対象情報が示す位置で、かつ前記所定の視点及び所定の視野で前記荷役対象を示す画像である荷役対象モデル情報を描画した荷役対象画像を生成して前記吊体画像に重ねた画像を前記処理画像として生成する請求項1に記載のクレーンの運転支援システム。
comprising a cargo handling object position acquisition means connected to the image generating means and acquiring cargo handling object information that is information including the position of the cargo handling object stored in the storage area in the storage area;
The image generation means generates a cargo handling object image in which cargo handling object model information is drawn, which is an image showing the cargo handling object at the position indicated by the cargo handling object information and at the predetermined viewpoint and predetermined visual field, and generates a cargo handling object image in which cargo handling object model information is drawn, and The crane driving support system according to claim 1, wherein an image superimposed on the image is generated as the processed image.
前記画像生成手段は、前記荷役対象画像に示される前記荷役対象と前記吊体画像に示される前記吊体のうち、前記所定の視点から距離が近いものを示す画像が手前側となり遠いものを示す画像が奥側となる状態で前記荷役対象画像と前記吊体画像とを重ねて、前記処理画像として生成する請求項2に記載のクレーンの運転支援システム。 The image generation means is configured such that, of the cargo handling object shown in the cargo handling object image and the hanging object shown in the hanging object image, an image showing an object that is close in distance from the predetermined viewpoint is on the near side and shows an object that is far away. 3. The crane driving support system according to claim 2, wherein the processed image is generated by overlapping the cargo handling object image and the suspended object image with the images facing toward the back. 前記蔵置領域を移動する、前記クレーン以外の移動体の前記蔵置領域における位置を移動体情報として取得する移動体位置取得手段を備え、
前記画像生成手段は、前記移動体情報が示す位置で、かつ前記所定の視点及び所定の視野で前記移動体を示す画像である移動体モデル情報を描画した移動体画像を生成し、前記吊体画像に重ねた画像を前記処理画像として生成する請求項1~3のいずれか一項に記載のクレーンの運転支援システム。
comprising a mobile body position acquisition means for acquiring the position of a mobile body other than the crane that moves in the storage area in the storage area as mobile body information;
The image generation means generates a moving object image in which moving object model information is drawn, which is an image showing the moving object at the position indicated by the moving object information and at the predetermined viewpoint and predetermined field of view, and The crane driving support system according to claim 1, wherein an image superimposed on the image is generated as the processed image.
前記画像生成手段は、前記移動体画像に示される前記移動体と前記吊体画像に示される前記吊体のうち、前記所定の視点から距離が近いものを示す画像が手前側となり遠いものを示す画像が奥側となる状態で前記移動体画像と前記吊体画像とを重ねて、前記処理画像として生成する請求項4に記載のクレーンの運転支援システム。 The image generating means is configured such that, of the moving object shown in the moving object image and the hanging object shown in the hanging object image, an image showing an object that is close in distance from the predetermined viewpoint is on the near side and an image that shows an object that is far away from the predetermined viewpoint. 5. The crane driving support system according to claim 4, wherein the moving object image and the suspended object image are superimposed on each other with the image facing toward the back to generate the processed image. 支持構造体と、前記支持構造体に支持されて荷役対象を蔵置領域から吊り上げる吊具を備えるクレーンの運転を支援する運転支援システムであって、
前記荷役対象を掴んでいない状態の前記吊具、又は、前記荷役対象を掴んだ状態の前記吊具とその掴まれた前記荷役対象を、吊体として、
前記吊体の位置を予め定められた所定の周期で検出して、検出結果を示す位置検出信号を生成する位置検出手段と、
前記位置検出手段に接続されて前記位置検出信号が入力され、前記位置検出信号が示す前記吊体の前記蔵置領域における位置で、かつ所定の視点及び所定の視野で前記吊体を示す画像情報である吊体モデル情報を描画した画像である吊体画像を含む画像である処理画像を前記所定の周期以下の周期で生成する画像生成手段と、
前記画像生成手段に接続され、前記処理画像を表示する表示手段と、を備えていて、
前記吊具は前記荷役対象を保持する複数の緊締装置を備え、
前記位置検出手段は、複数の前記緊締装置の位置を検出し、検出した位置から前記吊体の姿勢を検出する手段であり、
前記画像生成手段は、前記位置検出手段が示す前記緊締装置の前記蔵置領域における位置及び算出した前記吊体の姿勢、かつ所定の視点及び所定の視野で前記吊体モデル情報を描画した前記吊体画像を生成することを特徴とするクレーンの運転支援システム。
An operation support system for supporting the operation of a crane comprising a support structure and a lifting device supported by the support structure to lift a cargo handling object from a storage area, the system comprising:
The lifting tool in a state in which the cargo handling object is not gripped, or the lifting tool in a state in which the cargo handling object is gripped and the grabbed cargo handling object is used as a hanging body,
a position detection means for detecting the position of the suspended body at a predetermined period and generating a position detection signal indicating the detection result;
image information that is connected to the position detection means and receives the position detection signal, and shows the hanging object at a position in the storage area of the hanging object indicated by the position detection signal and at a predetermined viewpoint and a predetermined field of view; image generating means for generating a processed image, which is an image including a suspended body image, which is an image depicting certain suspended body model information, at a cycle equal to or less than the predetermined cycle;
display means connected to the image generation means and displaying the processed image;
The hanging device includes a plurality of tightening devices for holding the cargo handling object,
The position detection means is a means for detecting the positions of the plurality of tightening devices and detecting the posture of the suspended body from the detected positions,
The image generating means is configured to generate the suspended body by drawing the suspended body model information based on the position of the tightening device in the storage area indicated by the position detection means, the calculated posture of the suspended body, and a predetermined viewpoint and a predetermined field of view. A crane driving support system characterized by generating images.
前記所定の周期は、前記クレーンを操作する指令を示す信号である制御信号の遅延時間以下である請求項1~6のいずれか一項に記載のクレーンの運転支援システム。 7. The crane operation support system according to claim 1 , wherein the predetermined cycle is equal to or less than a delay time of a control signal that is a signal indicating a command to operate the crane. 前記支持構造体は、第1の向きに張り出した桁と、前記桁に支持されて前記吊体を保持し、前記第1の向きに沿って移動するトロリを備え、
前記所定の視点は、前記吊体の上方であって、前記吊体の真上から前記トロリの移動方向に所定量ずれた位置から前記吊体を見下ろす視点であり、
前記所定の視野は、肉眼の視野角以内である請求項1~7のいずれか一項に記載のクレーンの運転支援システム。
The support structure includes a girder extending in a first direction, and a trolley that is supported by the girder and holds the hanging body and moves along the first direction,
The predetermined viewpoint is a viewpoint that is above the suspended body and looks down on the suspended body from a position shifted by a predetermined amount in the moving direction of the trolley from directly above the suspended body,
The crane driving support system according to any one of claims 1 to 7 , wherein the predetermined field of view is within a viewing angle of the naked eye.
支持構造体と、前記支持構造体に支持されて荷役対象を蔵置領域から吊り上げる吊具を備えるクレーンの運転を支援する運転支援方法であって、
前記荷役対象を掴んでいない状態の前記吊具、又は、前記荷役対象を掴んだ状態の前記吊具とその掴まれた前記荷役対象を、吊体として、
前記吊体の位置及び姿勢を予め定められた所定の周期で検出して、検出結果を示す位置検出信号を生成する位置検出工程と、
前記位置検出信号を取得し、前記位置検出信号が示す前記吊体の前記蔵置領域における位置及び姿勢で、かつ所定の視点及び所定の視野で、前記吊体を示す画像である吊体モデル情報を描画した画像であり、前記吊具のトリムおよびリストおよびスキューと、前記吊具の振れ角とが前記姿勢として反映されている吊体画像を含む画像である処理画像を前記所定の周期以下の周期で生成する画像生成工程と、
前記処理画像を表示手段に表示する表示工程と、
を実施することを特徴とするクレーンの運転支援方法。
An operation support method for supporting the operation of a crane comprising a support structure and a lifting device supported by the support structure to lift a cargo handling object from a storage area, the method comprising:
The lifting tool in a state in which the cargo handling object is not gripped, or the lifting tool in a state in which the cargo handling object is gripped and the grabbed cargo handling object is used as a hanging body,
a position detection step of detecting the position and orientation of the suspended body at a predetermined period and generating a position detection signal indicating the detection result;
Acquire the position detection signal, and obtain suspended body model information that is an image showing the suspended body at the position and orientation of the suspended body in the storage area indicated by the position detection signal, and at a predetermined viewpoint and a predetermined field of view. A processed image that is a drawn image and includes a suspended body image in which the trim, wrist, and skew of the hanging device and the deflection angle of the hanging device are reflected as the posture is processed at a rate equal to or less than the predetermined period. an image generation process that generates images periodically;
a display step of displaying the processed image on a display means;
A crane operation support method characterized by carrying out the following.
JP2019171309A 2019-09-20 2019-09-20 Crane operation support system and crane operation support method Active JP7345335B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019171309A JP7345335B2 (en) 2019-09-20 2019-09-20 Crane operation support system and crane operation support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019171309A JP7345335B2 (en) 2019-09-20 2019-09-20 Crane operation support system and crane operation support method

Publications (2)

Publication Number Publication Date
JP2021046308A JP2021046308A (en) 2021-03-25
JP7345335B2 true JP7345335B2 (en) 2023-09-15

Family

ID=74877704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019171309A Active JP7345335B2 (en) 2019-09-20 2019-09-20 Crane operation support system and crane operation support method

Country Status (1)

Country Link
JP (1) JP7345335B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117088271B (en) * 2023-08-30 2024-03-19 无锡市欣帆船舶设备有限公司 Cargo lifting loading and unloading device for ship

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160031681A1 (en) 2014-07-31 2016-02-04 Trimble Navigation Limited Three dimensional rendering of job site
JP2016193777A (en) 2015-03-31 2016-11-17 三井造船株式会社 Remote operation method for crane and remote operation device for crane
JP2019059593A (en) 2017-09-27 2019-04-18 株式会社大林組 Crane operation support device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160031681A1 (en) 2014-07-31 2016-02-04 Trimble Navigation Limited Three dimensional rendering of job site
JP2016193777A (en) 2015-03-31 2016-11-17 三井造船株式会社 Remote operation method for crane and remote operation device for crane
JP2019059593A (en) 2017-09-27 2019-04-18 株式会社大林組 Crane operation support device

Also Published As

Publication number Publication date
JP2021046308A (en) 2021-03-25

Similar Documents

Publication Publication Date Title
US8627575B2 (en) Hook pose detecting equipment and crane
US6631300B1 (en) Nonlinear active control of dynamical systems
WO2018220951A1 (en) Control system for container crane and control method for container crane
JP6017691B2 (en) Information presenting apparatus, crane system and information presenting method
CN110540137B (en) Crane operation system based on multi-sensor fusion
AU2013326359A1 (en) Load handling by load handling device
GB2267360A (en) Method and system for interacting with floating objects
JP6689467B2 (en) Crane equipment
KR20190078984A (en) Monitoring system for preventing lift objects collision against crane
JP2018188250A (en) Method and device for assisting with operation of cargo handling machine, and method and device for assisting with maintenance work
JP6481178B2 (en) Crane remote operation method and crane remote operation device
JP2022523323A (en) Systems and methods for determining the relative position and motion of an object
JP7345335B2 (en) Crane operation support system and crane operation support method
CN210558950U (en) Crane operation system based on multi-sensor fusion
US20220063965A1 (en) Crane
JP5575571B2 (en) Image generation system
JPH06312894A (en) Operating device for crane
JP5595822B2 (en) Image generation system
JP2004189460A (en) Yard crane, method for acquiring position information, and method for instructing cargo handling thereof
JP6925731B2 (en) Cargo handling system, cargo handling device, and cargo handling method
JP6309481B2 (en) Crane driving support method and crane driving support device
JP2007015842A (en) Transportation control system of large-sized structure
CN113044721A (en) Portal crane operation attitude control system and method
CN110198909B (en) Contraposition device for container
JP5575572B2 (en) Image generation system

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20220107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230123

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230731

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20230731

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230905

R150 Certificate of patent or registration of utility model

Ref document number: 7345335

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150