JP2021143038A - Operation supporting system and operation supporting method of crane - Google Patents

Operation supporting system and operation supporting method of crane Download PDF

Info

Publication number
JP2021143038A
JP2021143038A JP2020042143A JP2020042143A JP2021143038A JP 2021143038 A JP2021143038 A JP 2021143038A JP 2020042143 A JP2020042143 A JP 2020042143A JP 2020042143 A JP2020042143 A JP 2020042143A JP 2021143038 A JP2021143038 A JP 2021143038A
Authority
JP
Japan
Prior art keywords
image
subject
visibility
crane
operation support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020042143A
Other languages
Japanese (ja)
Other versions
JP7290012B2 (en
Inventor
昌博 松浦
Masahiro Matsuura
昌博 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsui E&S Machinery Co Ltd
Original Assignee
Mitsui E&S Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsui E&S Machinery Co Ltd filed Critical Mitsui E&S Machinery Co Ltd
Priority to JP2020042143A priority Critical patent/JP7290012B2/en
Publication of JP2021143038A publication Critical patent/JP2021143038A/en
Application granted granted Critical
Publication of JP7290012B2 publication Critical patent/JP7290012B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control And Safety Of Cranes (AREA)

Abstract

To provide an operation supporting system and an operation supporting method of a crane capable of improving workability of crane operations by an operator.SOLUTION: An operation supporting system of a crane takes a photographed image P1 including a suspended object 30 by a photographing device 21 and acquires two-dimensional coordinates in the photographed image P1 of a subject reflected in the photographed image P1. The system generates a processed image P3 in which the visibility of a preselected subject is processed relatively higher than the visibility of other subjects unselected based on the acquired two-dimensional coordinates of the subject, where the preselected subject includes at least one of the suspended object 30, a landing target surface 31 on which the suspended object 30 is landed, and an obstacle 33 on the cargo handling path of the suspended object 30 of the subjects reflected in the image P1. The system causes a display device 23 to display the generated, processed image P3.SELECTED DRAWING: Figure 5

Description

本発明は、クレーンの操作支援システムおよび操作支援方法に関し、より詳細には、オペレータによるクレーンの操作の作業性を向上できるクレーンの操作支援システムおよび操作支援方法に関する。 The present invention relates to a crane operation support system and an operation support method, and more particularly to a crane operation support system and an operation support method capable of improving the workability of a crane operation by an operator.

コンテナクレーンのトロリから吊り下げられた吊体(吊具または吊具が掴んだ吊荷)を着床ターゲット面(地面や置荷など)に着床させる着床操作を支援する方法として、トロリに設置した撮影装置(カメラ)で、吊体とその下方の着床ターゲット面を斜め方向から撮影して、撮影装置が撮影した撮影画像を表示装置(ディスプレイ装置)に表示するクレーンの運転方法が提案されている(例えば、特許文献1参照)。 As a method of supporting the landing operation of landing a suspension body (suspension device or a load gripped by the suspension device) suspended from the trolley of a container crane on the landing target surface (ground, load, etc.), the trolley is used. A crane operation method is proposed in which the suspended body and the landing target surface below it are photographed from an oblique direction with the installed imaging device (camera), and the captured image captured by the imaging device is displayed on the display device (display device). (See, for example, Patent Document 1).

特開平5−246683号公報Japanese Unexamined Patent Publication No. 5-246683

ところで、特許文献1に記載の運転方法のように、トロリに設置した撮影装置が撮影する撮影画像には、吊体や着床ターゲット面の他に、クレーンの構造体、コンテナターミナルや船舶に配置されているコンテナや設備、コンテナを運搬する運搬機(シャーシともいう)などの様々な被写体が写り込む。撮影画像には吊体や着床ターゲット面、吊体の荷役経路上に存在する障害物などの荷役作業を行う際にオペレータが認識する必要性の高い被写体と、その他の認識する必要性の低い被写体とが混在して写り込んでいるため、オペレータの目に入る情報量が非常に多い。それ故、表示装置に撮影画像をそのまま表示させるだけでは、オペレータが荷役作業を行う際に認識する必要性の高い特定の被写体が、認識する必要性の低いその他の被写体に紛れて把握しづらかった。 By the way, as in the operation method described in Patent Document 1, the photographed image taken by the photographing device installed in the trolley is arranged in the structure of the crane, the container terminal, and the ship in addition to the suspended body and the landing target surface. Various subjects such as containers and equipment, and transporters (also called chassis) that transport containers are captured. The captured image includes subjects that the operator needs to recognize when performing cargo handling work such as the suspension body, the landing target surface, and obstacles existing on the cargo handling path of the suspension body, and other subjects that need not be recognized. Since the image is mixed with the subject, the amount of information that the operator can see is very large. Therefore, it is difficult to grasp a specific subject that the operator needs to recognize when performing cargo handling work, among other subjects that need not be recognized, by simply displaying the captured image on the display device as it is. ..

本発明は、上記の状況を鑑みてなされたものであり、その目的は、オペレータによるクレーンの操作の作業性を向上できるクレーンの操作支援システムおよび操作支援方法を提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a crane operation support system and an operation support method capable of improving the workability of a crane operation by an operator.

上記のような目的を達成するための本発明のクレーンの操作支援システムは、撮影装置によりトロリから吊り下げられた吊体を含む撮影画像を撮影し、その撮影装置が撮影した前記撮影画像に基づく映像を表示装置に表示させるクレーンの操作支援方法において、前記撮影装置により前記吊体を含む前記撮影画像を撮影するステップと、前記撮影画像に写り込む被写体の前記撮影画像における二次元座標を取得するステップと、その取得した前記二次元座標に基づいて、前記被写体のうち、前記吊体、前記吊体を着床させる着床ターゲット面、または前記吊体の荷役経路上に存在する障害物の少なくともいずれかを含む予め選定された前記被写体の視認性を、選定されていないその他の前記被写体の視認性に比して相対的に高くした処理画像を生成するステップと、その生成した前記処理画像を前記表示装置に表示させるステップと、を含むことを特徴とする。 The crane operation support system of the present invention for achieving the above object captures a photographed image including a suspended body suspended from a trolley by a photographing device, and is based on the photographed image taken by the photographing device. In the crane operation support method for displaying an image on a display device, the step of capturing the captured image including the suspended body by the imaging device and the two-dimensional coordinates of the subject reflected in the captured image in the captured image are acquired. Based on the step and the acquired two-dimensional coordinates, at least of the suspension body, the landing target surface on which the suspension body is landed, or an obstacle existing on the cargo handling path of the suspension body among the subjects. A step of generating a processed image in which the visibility of the preselected subject including any of the above is relatively higher than the visibility of the other unselected subject, and the generated processed image are described. It is characterized by including a step of displaying on the display device.

上記のような目的を達成するための本発明のクレーンの操作支援方法は、撮影装置によりトロリから吊り下げられた吊体を含む撮影画像を撮影し、その撮影装置が撮影した前記撮影画像に基づく映像を表示装置に表示させるクレーンの操作支援方法において、前記撮影装置により前記吊体を含む前記撮影画像を撮影するステップと、前記撮影画像に写り込む被写体の前記撮影画像における二次元座標を取得するステップと、その取得した前記二次元座標に基づいて、前記被写体のうち、前記吊体、前記吊体を着床させる着床ターゲット面、または前記吊体の荷役経路上に存在する障害物の少なくともいずれかを含む予め選定された前記被写体の視認性を、選定されていないその他の前記被写体の視認性に比して相対的に高くした処理画像を生成するステップと、その生成した前記処理画像を前記表示装置に表示させるステップと、を含むことを特徴とする。 The crane operation support method of the present invention for achieving the above object is based on a photographed image including a suspended body suspended from a trolley by a photographing device and photographed by the photographing device. In the crane operation support method for displaying an image on a display device, the step of capturing the captured image including the suspended body by the imaging device and the two-dimensional coordinates of the subject reflected in the captured image in the captured image are acquired. Based on the step and the acquired two-dimensional coordinates, at least of the suspension body, the landing target surface on which the suspension body is landed, or an obstacle existing on the cargo handling path of the suspension body among the subjects. A step of generating a processed image in which the visibility of the preselected subject including any of the above is relatively higher than the visibility of the other unselected subject, and the generated processed image are described. It is characterized by including a step of displaying on the display device.

本発明によれば、撮影装置が撮影した撮影画像に写っている被写体のうち、吊体、着床ターゲット面、または障害物の少なくともいずれかを含む予め選定された被写体の視認性を選定されていないその他の被写体の視認性よりも高めた処理画像を表示装置に表示させる。これにより、表示装置に撮影画像をそのまま表示させる場合よりも、クレーンを操作するオペレータが荷役作業を行う際に認識する必要性の高い特定の被写体(吊体、着床ターゲット面、または障害物の少なくともいずれか)をより把握し易くなる。それ故、オペレータによるクレーンの操作の作業性を向上できる。 According to the present invention, the visibility of a preselected subject including at least one of a hanging body, a landing target surface, and an obstacle is selected among the subjects shown in the captured image captured by the photographing device. The display device displays a processed image that is higher than the visibility of other subjects. As a result, a specific subject (suspended body, landing target surface, or obstacle) that the operator operating the crane needs to recognize when performing cargo handling work, rather than displaying the captured image as it is on the display device. At least one) will be easier to understand. Therefore, the workability of the crane operation by the operator can be improved.

本発明のクレーンの操作支援システムの実施形態を例示する構成図である。It is a block diagram which illustrates embodiment of the crane operation support system of this invention. 図1の操作支援システムを例示するブロック図である。It is a block diagram which illustrates the operation support system of FIG. 図1の撮影装置が撮影した撮影画像を例示する説明図である。It is explanatory drawing which illustrates the photographed image photographed by the photographing apparatus of FIG. 図1の処理装置が生成した上層画像を例示する説明図である。It is explanatory drawing which illustrates the upper layer image generated by the processing apparatus of FIG. 図1の表示装置に表示される処理画像を例示する説明図である。It is explanatory drawing which illustrates the processed image displayed on the display device of FIG. 本発明の操作支援方法の実施形態を例示するフロー図である。It is a flow figure which illustrates embodiment of the operation support method of this invention. 表示装置に表示される別の処理画像を例示する説明図である。It is explanatory drawing which illustrates another processed image displayed on the display device.

以下、本発明のクレーンの操作支援システムおよび操作支援方法の実施形態について説明する。図中では、クレーン1のトロリ5の走行する方向をX方向、水平方向においてX方向に直交する方向をY方向、鉛直方向(上下方向)をZ方向としている。 Hereinafter, embodiments of the crane operation support system and the operation support method of the present invention will be described. In the figure, the traveling direction of the trolley 5 of the crane 1 is the X direction, the direction orthogonal to the X direction in the horizontal direction is the Y direction, and the vertical direction (vertical direction) is the Z direction.

図1に例示する実施形態のクレーン1の操作支援システム20は、オペレータによるクレーン1の操作を支援するシステムである。この操作支援システム20は主に、トロリ5から吊り下げられた吊体30を、吊体30の下方に位置する着床ターゲット面31に着床させる着床操作(以下、着床操作という)を支援する。なお、操作支援システム20は着床操作以外のクレーン1の操作においても利用することができる。 The operation support system 20 for the crane 1 of the embodiment illustrated in FIG. 1 is a system that supports the operation of the crane 1 by an operator. The operation support system 20 mainly performs a landing operation (hereinafter referred to as a landing operation) in which the suspension body 30 suspended from the trolley 5 is landed on the landing target surface 31 located below the suspension body 30. Support. The operation support system 20 can also be used for the operation of the crane 1 other than the landing operation.

前述した吊体30は、クレーン1が備えている吊具7によって置荷を掴みに行く場合には吊具7単体であり、この場合の着床ターゲット面31は荷役対象となる置荷の上面である。吊具7が掴んでいる吊荷を置きに行く場合の吊体30は吊具7および吊荷であり、この場合の着床ターゲット面31は、陸地36や船舶35に配置されている置荷の上面や、陸地36、船舶35の床面、運搬機34の荷台の上面等である。 The above-mentioned suspension body 30 is a single suspension tool 7 when the crane 1 is used to grab the load, and the landing target surface 31 in this case is the upper surface of the load to be handled. Is. The hanging body 30 when going to put the hanging load held by the hanging tool 7 is the hanging tool 7 and the hanging load, and the landing target surface 31 in this case is the loading placed on the land 36 or the ship 35. The upper surface of the land 36, the floor of the ship 35, the upper surface of the loading platform of the carrier 34, and the like.

この実施形態では、船舶35に対してコンテナ32の荷役を行うクレーン1に搭載した場合の操作支援システム20を例示する。以下では、クレーン1が備えているコンテナ用の吊具7(スプレッダともいう)を運搬機34の荷台に載置されている隣り合った2つのコンテナ32の上面に着床させる着床操作を行う場合を例示する。即ち、この実施形態における吊体30は吊具7であり、着床ターゲット面31は2つのコンテナ32の上面である。 In this embodiment, an operation support system 20 when mounted on a crane 1 that handles cargo handling of a container 32 for a ship 35 is illustrated. In the following, a landing operation is performed in which the container hanger 7 (also referred to as a spreader) provided in the crane 1 is landed on the upper surfaces of two adjacent containers 32 mounted on the loading platform of the transporter 34. Illustrate the case. That is, the suspension body 30 in this embodiment is the suspension tool 7, and the landing target surface 31 is the upper surface of the two containers 32.

図1に例示するように、クレーン1は、脚構造体2と、脚構造体2の上部に支持されたX方向に延在する桁部4と、桁部4に支持されてX方向に移動するトロリ5と、トロリ5からワイヤ6により吊り下げられた吊具7とを備えている。脚構造体2は、Z方向に延在する複数の脚2aと、X方向に隣り合う脚2aどうしを連結する水平桁2bと、Y方向に隣り合う脚2aどうしを連結する水平梁2c(シルビームともいう)とを有して構成されている。それぞれの脚2aの下端には、陸地に敷設されたY方向に延在するレールに沿って走行可能な走行装置3が設置されている。 As illustrated in FIG. 1, the crane 1 moves in the X direction supported by the leg structure 2, the girder portion 4 extending in the X direction supported on the upper portion of the leg structure 2, and the girder portion 4. The trolley 5 is provided with a hanging tool 7 suspended from the trolley 5 by a wire 6. The leg structure 2 includes a plurality of legs 2a extending in the Z direction, a horizontal girder 2b connecting the legs 2a adjacent to each other in the X direction, and a horizontal beam 2c (sill beam) connecting the legs 2a adjacent to each other in the Y direction. It is also composed of). At the lower end of each leg 2a, a traveling device 3 that can travel along a rail laid on land and extending in the Y direction is installed.

脚構造体2の上部には機械室8が設けられていて、その機械室8にトロリ5をX方向に移動させる移動装置9と、ワイヤ6を巻き取るあるいは繰り出すことで吊具7をZ方向に昇降させる昇降装置10が設置されている。機械室8には、さらに、走行装置3、移動装置9、および昇降装置10の制御を行うクレーン用制御装置11が設置されている。移動装置9、昇降装置10、およびクレーン用制御装置11の設置位置は機械室8に限らず、例えば、トロリ5などの他の位置に配置することもできる。 A machine room 8 is provided in the upper part of the leg structure 2, and a moving device 9 for moving the trolley 5 in the X direction in the machine room 8 and a hanger 7 for winding or unwinding the wire 6 in the Z direction. An elevating device 10 is installed. In the machine room 8, a crane control device 11 that controls a traveling device 3, a moving device 9, and an elevating device 10 is further installed. The installation positions of the moving device 9, the lifting device 10, and the crane control device 11 are not limited to the machine room 8, and may be arranged at other positions such as the trolley 5.

この実施形態のクレーン1の操作室12は、クレーン1と離間した位置に配置されている。操作室12には、クレーン用制御装置11に無線アンテナを介して通信可能に接続された操作装置13が設置されている。クレーン1のオペレータは操作室12において、操作装置13を操作することにより、クレーン用制御装置11を介してクレーン1(走行装置3、移動装置9、および昇降装置10)の遠隔操作を行なう。なお、操作室12がクレーン1の構造体に付設されている構成にすることもできる。 The operation chamber 12 of the crane 1 of this embodiment is arranged at a position separated from the crane 1. In the operation room 12, an operation device 13 that is communicably connected to the crane control device 11 via a wireless antenna is installed. The operator of the crane 1 operates the operating device 13 in the operation room 12 to remotely control the crane 1 (traveling device 3, moving device 9, and lifting device 10) via the crane control device 11. The operation chamber 12 may be attached to the structure of the crane 1.

図2に例示するように、操作支援システム20は、撮影装置21、処理装置22、表示装置23、および入力手段24を有して構成されている。処理装置22は機能要素として、設定部22a、位置情報取得部22b、生成部22c、および表示制御部22dを有している。処理装置22、表示装置23、および入力手段24は、操作室12に配置されている。処理装置22を構成する各機能要素は操作室12以外の場所に配置することもできる。撮影装置21、表示装置23、および入力手段24はそれぞれ処理装置22に有線または無線によって通信可能に接続されている。 As illustrated in FIG. 2, the operation support system 20 includes a photographing device 21, a processing device 22, a display device 23, and an input means 24. The processing device 22 has a setting unit 22a, a position information acquisition unit 22b, a generation unit 22c, and a display control unit 22d as functional elements. The processing device 22, the display device 23, and the input means 24 are arranged in the operation room 12. Each functional element constituting the processing device 22 can be arranged in a place other than the operation room 12. The photographing device 21, the display device 23, and the input means 24 are connected to the processing device 22 so as to be able to communicate with each other by wire or wirelessly.

撮影装置21は、吊体30を撮影可能な位置に設置され、吊体30を含む撮影画像P1を逐次撮影する。撮影装置21としては、デジタルビデオカメラなどが例示できる。図1に例示するように、この実施形態の撮影装置21は、側面視(Y方向から見た視点)で、トロリ5のX方向の陸側端部に設置されている。撮影装置21の撮影方向はX方向陸側からX方向海側に斜め下向きに設定されている。 The photographing device 21 is installed at a position where the hanging body 30 can be photographed, and sequentially photographs the photographed image P1 including the suspending body 30. Examples of the photographing device 21 include a digital video camera and the like. As illustrated in FIG. 1, the photographing apparatus 21 of this embodiment is installed at the land side end portion of the trolley 5 in the X direction in a side view (viewpoint viewed from the Y direction). The photographing direction of the photographing device 21 is set diagonally downward from the land side in the X direction to the sea side in the X direction.

トロリ5に設置した撮影装置21により吊体30を斜め方向から俯瞰で撮影することで、図3に例示するように、トロリ5に付設された運転室でクレーン操作を行っていた従来のオペレータの視界を再現した撮影画像P1を撮影している。なお、撮影装置21は吊体30を含む撮影画像P1を撮影できる条件であれば、設置位置や撮影方向は特に限定されない。撮影装置21は例えば、脚構造体2や桁部4などに配置することもできるし、クレーン1から離間した位置に配置することもできる。撮影装置21で撮影された撮影画像P1は処理装置22に逐次入力される構成になっている。 By taking a bird's-eye view of the suspended body 30 from an oblique direction with the photographing device 21 installed in the trolley 5, as illustrated in FIG. 3, a conventional operator who operates a crane in the driver's cab attached to the trolley 5 The photographed image P1 that reproduces the field of view is photographed. The installation position and the photographing direction of the photographing device 21 are not particularly limited as long as the photographed image P1 including the suspension body 30 can be photographed. The photographing device 21 can be arranged, for example, in the leg structure 2, the girder portion 4, or the like, or can be arranged at a position away from the crane 1. The captured image P1 captured by the photographing device 21 is configured to be sequentially input to the processing device 22.

処理装置22は、撮影画像P1に写り込む被写体の撮影画像P1における二次元座標を取得する。そして、処理装置22は、その取得した被写体の二次元座標に基づいて、図5に例示するように、撮影画像P1に写り込む被写体のうち、吊体30、吊体30を着床させる着床ターゲット面31、または吊体30の荷役経路上に存在する障害物33の少なくともいずれかを含む予め選定された被写体の視認性を、選定されていないその他の被写体(以下、その他の被写体という)の視認性に比して相対的に高くした処理画像P3を生成する。そして、処理装置22は、その生成した処理画像P3を表示装置23に表示させる構成になっている。 The processing device 22 acquires the two-dimensional coordinates of the photographed image P1 of the subject reflected in the photographed image P1. Then, based on the acquired two-dimensional coordinates of the subject, the processing device 22 implants the suspension body 30 and the suspension body 30 among the subjects reflected in the captured image P1 as illustrated in FIG. The visibility of a preselected subject including at least one of the target surface 31 or the obstacle 33 existing on the cargo handling path of the suspension body 30 is defined as that of another unselected subject (hereinafter referred to as another subject). A processed image P3 that is relatively high in terms of visibility is generated. The processing device 22 is configured to display the generated processed image P3 on the display device 23.

撮影画像P1に写り込む被写体の中で、オペレータによるクレーン1の操作に関与する主な被写体は、吊体30と、吊体30を着床させる目標である着床ターゲット面31と、吊体30の荷役経路上にある障害物33である。それ故、この操作支援システム20では、処理装置22によって撮影画像P1に対して画像処理を施して、オペレータが認識する必要性の高い吊体30、着床ターゲット面31、障害物33の少なくともいずれかを撮影画像P1よりも視覚的により識別し易くした処理画像P3を生成する。 Among the subjects reflected in the captured image P1, the main subjects involved in the operation of the crane 1 by the operator are the suspension body 30, the landing target surface 31 which is the target for landing the suspension body 30, and the suspension body 30. It is an obstacle 33 on the cargo handling route of. Therefore, in the operation support system 20, at least one of the suspension body 30, the landing target surface 31, and the obstacle 33, which the operator needs to recognize by performing image processing on the captured image P1 by the processing device 22. A processed image P3 is generated that makes it easier to visually identify the image P1 than the captured image P1.

前述した障害物33は、具体的には例えば、吊体30の移動範囲内に位置して吊体30に接触、衝突する可能性のある、水平梁2cや、脚構造体2に設置されている付帯設備、船舶35の構造物や設備、船舶35や陸地36に載置されている着床ターゲット面31以外の置荷や設備、吊体30の荷役経路上に存在する人などである。 Specifically, the above-mentioned obstacle 33 is installed on a horizontal beam 2c or a leg structure 2 which is located within the moving range of the suspension body 30 and may come into contact with or collide with the suspension body 30. These include incidental equipment, structures and equipment of the ship 35, loads and equipment other than the landing target surface 31 mounted on the ship 35 and the land 36, and a person existing on the cargo handling route of the suspension body 30.

予め選定された被写体の視認性を、その他の被写体の視認性に比して相対的に高くする画像処理としては、撮影画像P1に対して選定された被写体の外縁部(エッジ)をより強調する加工を施す画像処理(所謂、シャープネス)や、選定された被写体のそれぞれの位置または形状を強調する付加標示50を撮影画像P1の上に重畳させる画像処理や、撮影画像P1に比してその他の被写体の視認性を低下させる画像処理などが例示できる。 As an image process for increasing the visibility of a pre-selected subject relative to the visibility of other subjects, the outer edge of the selected subject is more emphasized with respect to the captured image P1. Image processing that performs processing (so-called sharpness), image processing that superimposes an additional marking 50 that emphasizes the position or shape of each selected subject on the captured image P1, and other image processing compared to the captured image P1. Examples include image processing that reduces the visibility of the subject.

処理装置22は、各種情報処理を行うCPU、その各種情報処理を行うために用いられるプログラムや情報処理結果を読み書き可能なうち内部記憶装置、および各種インターフェースなどから構成されるハードウェアである。処理装置22を構成する設定部22a、位置情報取得部22b、生成部22c、および表示制御部22dは、プログラムとして内部記憶装置に記憶されていて、適時、CPUにより実行される。処理装置22を構成する各機能要素は、プログラムの他にそれぞれが独立して機能するPLCとしてもよい。 The processing device 22 is hardware composed of a CPU that performs various information processing, an internal storage device that can read and write programs and information processing results used for performing the various information processing, and various interfaces. The setting unit 22a, the position information acquisition unit 22b, the generation unit 22c, and the display control unit 22d constituting the processing device 22 are stored as programs in the internal storage device, and are executed by the CPU in a timely manner. Each functional element constituting the processing device 22 may be a PLC that functions independently in addition to the program.

設定部22aは、視認性を相対的に高くする被写体を選定する。この実施形態の設定部22aは、さらに、生成部22cで実行する撮影画像P1に対する画像処理の選定と、選定した画像処理における表示パターンの選定を行う構成になっている。設定部22aには、視認性を相対的に高くする被写体の候補として、吊体30、着床ターゲット面31、障害物33のうちの少なくともいずれかを含む選択肢が予め記憶されている。この実施形態の設定部22aには、さらに、選択肢に含まれている被写体の視認性を相対的に高くする画像処理の種類の選択肢と、それぞれの画像処理における表示パターンの選択肢が記憶されている。 The setting unit 22a selects a subject whose visibility is relatively high. The setting unit 22a of this embodiment is further configured to select image processing for the captured image P1 executed by the generation unit 22c and to select a display pattern in the selected image processing. The setting unit 22a stores in advance an option including at least one of the suspension body 30, the landing target surface 31, and the obstacle 33 as a candidate for a subject whose visibility is relatively high. The setting unit 22a of this embodiment further stores options for the type of image processing included in the options that relatively increase the visibility of the subject, and options for the display pattern in each image processing. ..

具体的には、設定部22aには、視認性を相対的に高くする被写体の候補として、例えば、吊体30の外縁部30aや、吊体30の外面部30b、吊体30に設けられている係合金具30c、着床ターゲット面31の外縁部31a、着床ターゲット面31の外面部31b、着床ターゲット面31に設けられている被係合金具31c、障害物33の外縁部33a、障害物33の外面部33bなどを含んだ選択肢が記憶されている。設定部22aに視認性を相対的に高くする被写体の候補として、前述した候補以外の被写体が含まれている構成にすることもできる。 Specifically, the setting unit 22a is provided on, for example, the outer edge portion 30a of the suspension body 30, the outer surface portion 30b of the suspension body 30, and the suspension body 30 as candidates for a subject whose visibility is relatively high. The engaging metal fitting 30c, the outer edge portion 31a of the landing target surface 31, the outer surface portion 31b of the landing target surface 31, the engaged metal fitting 31c provided on the landing target surface 31, the outer edge portion 33a of the obstacle 33, Options including the outer surface portion 33b of the obstacle 33 and the like are stored. As a candidate for a subject whose visibility is relatively high, the setting unit 22a may include a subject other than the above-mentioned candidate.

前述した吊体30の外縁部30aは、吊具7や吊荷(コンテナ32)の輪郭を示す部分(エッジなど)である。吊体30の外面部30bは、吊具7や吊荷の外側に露出している上面部分や側面部分である。吊体30に設けられている係合金具30cは、吊具7でコンテナ32を掴む際にコンテナ32の上部の四隅に設けられたそれぞれの被係合金具31cに係合させる、吊具7の下部に突設された金具(所謂、ツイストロックピン)である。この実施形態では、吊具7の四隅の4ヶ所と吊具7の中央の4ヶ所の計8ヶ所にそれぞれ係合金具30cが設けられているが、吊具7の四隅の4ヶ所だけに係合金具30cが設けられている場合もある。 The outer edge portion 30a of the suspension body 30 described above is a portion (edge or the like) showing the outline of the suspension tool 7 or the suspension load (container 32). The outer surface portion 30b of the suspension body 30 is an upper surface portion or a side surface portion exposed to the outside of the suspension tool 7 or the suspended load. The engaging metal fittings 30c provided on the hanging body 30 engage with the engaged metal fittings 31c provided at the upper four corners of the container 32 when the container 32 is gripped by the hanging tool 7. It is a metal fitting (so-called twist lock pin) protruding from the bottom. In this embodiment, the engaging metal fittings 30c are provided at four places at the four corners of the hanger 7 and at four places at the center of the hanger 7, respectively, but they are engaged only at the four places at the four corners of the hanger 7. An alloy metal fitting 30c may be provided.

着床ターゲット面31の外縁部31aは、陸地36や船舶35に配置されている荷役対象となる置荷(コンテナ32)の上面や、陸地36、船舶35の床面、運搬機34の荷台の上面などの、吊体30を着床させる目標となる面の輪郭を示す部分である。着床ターゲット面31の外面部31bは、前述した吊体30を着床させる目標となる面の面部分である。着床ターゲット面31の被係合金具31cは、荷役対象となるコンテナ32の上部の四隅に設けられた係合金具30cを係合させる金具(隅金具ともいう)である。 The outer edge portion 31a of the landing target surface 31 is the upper surface of the load (container 32) to be loaded and unloaded arranged on the land 36 and the ship 35, the floor surface of the land 36 and the ship 35, and the loading platform of the carrier 34. It is a portion showing the contour of a target surface on which the suspension body 30 is to be landed, such as the upper surface. The outer surface portion 31b of the landing target surface 31 is a surface portion of the target surface on which the above-mentioned suspension body 30 is landed. The engaged metal fitting 31c of the landing target surface 31 is a metal fitting (also referred to as a corner metal fitting) for engaging the engaging metal fittings 30c provided at the upper four corners of the container 32 to be handled.

障害物33の外縁部33aは、吊体30が接触、衝突する可能性のある障害物33の輪郭を示す部分(エッジなど)である。障害物33の外面部33bは、障害物33の吊体30が接触、衝突する可能性のある面部分である。 The outer edge portion 33a of the obstacle 33 is a portion (edge or the like) showing the contour of the obstacle 33 with which the suspension body 30 may come into contact with or collide. The outer surface portion 33b of the obstacle 33 is a surface portion where the suspension body 30 of the obstacle 33 may come into contact with or collide with the hanger.

設定部22aには、選定された被写体の視認性を相対的に高くする画像処理の候補として、例えば、撮影画像P1に対して選定された被写体の外縁部(エッジ)をより強調する加工を施す画像処理や、選定された被写体のそれぞれの位置または形状を強調する付加標示50を撮影画像P1の上に重畳させる画像処理や、撮影画像P1に比して選定されていないその他の被写体の視認性を低下させる画像処理などを含む画像処理の種類の選択肢が記憶されている。 As a candidate for image processing that relatively enhances the visibility of the selected subject, the setting unit 22a is subjected to, for example, a process that further emphasizes the outer edge of the selected subject with respect to the captured image P1. Image processing, image processing that superimposes an additional marking 50 that emphasizes the position or shape of each selected subject on the captured image P1, and visibility of other subjects that are not selected compared to the captured image P1. The options of the type of image processing including the image processing that reduces the number of images are stored.

前述した付加標示50を撮影画像P1の上に重畳させる画像処理としては、例えば、選定された被写体の外縁部30a、31a、33aの上に強調線51(イメージ線)を重ねて表示する画像処理や、選定された被写体の外面部30b、31b、33bや係合金具30c、被係合金具31cなどの上に着色部52を重ねて表示する画像処理や、選定された被写体の位置を示す目印53を選定された被写体の上や被写体の近傍に表示する画像処理などの選択肢が記憶されている。 As an image process for superimposing the above-mentioned additional marking 50 on the captured image P1, for example, an image process for displaying an emphasis line 51 (image line) superimposed on the outer edge portions 30a, 31a, 33a of the selected subject. Image processing for displaying the colored portion 52 on the outer surface portions 30b, 31b, 33b, the engaging metal fitting 30c, the engaged metal fitting 31c, etc. of the selected subject, and a mark indicating the position of the selected subject. Options such as image processing for displaying 53 on or near the selected subject are stored.

その他の被写体の視認性を低下させる画像処理としては、例えば、その他の被写体の外縁部をぼかす画像処理や、その他の被写体が写っている領域をぼかす画像処理、その他の被写体が写っている領域の透過度を高める画像処理、その他の被写体が写っている領域を覆い隠す画像処理(マスキング)などの選択肢が記憶されている。 Image processing that reduces the visibility of other subjects includes, for example, image processing that blurs the outer edge of the other subject, image processing that blurs the area in which the other subject appears, and image processing in which the other subject appears. Options such as image processing to increase transparency and image processing (masking) to cover other areas in which the subject is captured are stored.

また、設定部22aには、画像処理における表示パターンを設定する項目として、例えば、被写体の外縁部(エッジ)を強調する度合いや、付加標示50の線種や配色や形状、その他の被写体の視認性を低下させる度合い(解像度や透過率)などを設定する選択肢が記憶されている。 Further, in the setting unit 22a, as items for setting a display pattern in image processing, for example, the degree of emphasizing the outer edge portion (edge) of the subject, the line type, color scheme, shape, and other visual recognition of the subject of the additional marking 50. Options for setting the degree of deterioration (resolution and transmittance) are stored.

設定部22aに記憶されている選択肢に従って、オペレータが入力手段24を用いて設定部22aにデータを入力することで、視認性を相対的に高くする被写体の選定と、生成部22cで実行する画像処理の選定と、画像処理の表示パターンの選定とを行える構成になっている。 According to the options stored in the setting unit 22a, the operator inputs data to the setting unit 22a using the input means 24 to select a subject whose visibility is relatively high, and an image to be executed by the generation unit 22c. The configuration is such that processing can be selected and display patterns for image processing can be selected.

この実施形態では、設定部22aにおいて、視認性を相対的に高くする被写体として、吊体30の外縁部30aおよび係合金具30c、着床ターゲット面31の外縁部31aおよび被係合金具31c、障害物33の外縁部33aおよび外面部33bが選定された場合を例示する。また、生成部22cで実行する画像処理として、付加標示50を撮影画像P1の上に重畳させる画像処理が選定され、付加標示50として、強調線51、着色部52、および目印53が選定された場合を例示する。以下では、設定部22aにおいて選定された、視認性を相対的に高くする被写体のデータ、生成部22cで実行する画像処理のデータ、および画像処理の表示パターンのデータをそれぞれ、被写体に関する選定データ、画像処理に関する選定データ、表示パターンに関する選定データとする。 In this embodiment, in the setting unit 22a, the outer edge portion 30a and the engaging metal fitting 30c of the hanging body 30, the outer edge portion 31a and the engaged metal fitting 31c of the landing target surface 31, are used as subjects for relatively increasing visibility. The case where the outer edge portion 33a and the outer surface portion 33b of the obstacle 33 are selected will be illustrated. Further, as the image processing to be executed by the generation unit 22c, an image process for superimposing the additional marking 50 on the captured image P1 was selected, and as the additional marking 50, the highlighted line 51, the coloring portion 52, and the mark 53 were selected. Illustrate the case. In the following, the data of the subject with relatively high visibility, the data of the image processing executed by the generation unit 22c, and the data of the display pattern of the image processing selected by the setting unit 22a are selected data relating to the subject, respectively. Selection data related to image processing and selection data related to display patterns.

設定部22aにおいて選定された被写体に関する選定データは、位置情報取得部22bと生成部22cにそれぞれ入力され、画像処理に関する選定データおよび表示パターンに関する選定データは生成部22cに入力される構成になっている。なお、設定部22aに記憶されている被写体の選択肢や、画像処理の選択肢、表示パターンの選択肢は例示した選択肢に限定されず、その他の選択肢が記憶されている構成にすることもできる。 The selection data related to the subject selected by the setting unit 22a is input to the position information acquisition unit 22b and the generation unit 22c, respectively, and the selection data related to image processing and the selection data related to the display pattern are input to the generation unit 22c. There is. The subject options, image processing options, and display pattern options stored in the setting unit 22a are not limited to the illustrated options, and other options may be stored.

位置情報取得部22bは、撮影装置21から入力される撮影画像P1と、設定部22aから入力される被写体に関する選定データとに基づいて、設定部22aにおいて予め選定された被写体のそれぞれの撮影画像P1における二次元座標を逐次取得する。位置情報取得部22bで取得した被写体の二次元座標は、生成部22cに逐次入力される構成になっている。 The position information acquisition unit 22b is a photographed image P1 of a subject selected in advance by the setting unit 22a based on the photographed image P1 input from the photographing device 21 and the selection data regarding the subject input from the setting unit 22a. The two-dimensional coordinates in are sequentially acquired. The two-dimensional coordinates of the subject acquired by the position information acquisition unit 22b are sequentially input to the generation unit 22c.

この実施形態の位置情報取得部22bは、撮影装置21から入力される撮影画像P1の画像解析を行うことで、設定部22aにおいて選定されたそれぞれの被写体の撮影画像P1における二次元座標を取得する構成になっている。この実施形態の位置情報取得部22bは、設定部22aにおいて選定された吊体30の外縁部30aおよび係合金具30cと、着床ターゲット面31の外縁部31aおよび被係合金具31cと、障害物33(水平梁2c)の外縁部33aおよび外面部33bの、それぞれの撮影画像P1における二次元座標を取得している。 The position information acquisition unit 22b of this embodiment acquires the two-dimensional coordinates of the captured image P1 of each subject selected by the setting unit 22a by performing image analysis of the captured image P1 input from the photographing device 21. It is configured. The position information acquisition unit 22b of this embodiment includes an outer edge portion 30a and an engaging metal fitting 30c of the hanging body 30 selected in the setting unit 22a, an outer edge portion 31a of the landing target surface 31, and an engaged metal fitting 31c, and an obstacle. The two-dimensional coordinates of the outer edge portion 33a and the outer surface portion 33b of the object 33 (horizontal beam 2c) in the captured image P1 are acquired.

位置情報取得部22bを構成する画像解析のプログラムやソフトなどは特に限定されず種々のプログラムやソフトを適用できる。位置情報取得部22bは、具体的には例えば、公知の画像解析技術であるパターンマッチングや特徴ベースマッチングなどを利用したプログラムやソフトで構成できる。 The image analysis programs and software constituting the position information acquisition unit 22b are not particularly limited, and various programs and software can be applied. Specifically, the position information acquisition unit 22b can be configured by, for example, a program or software that uses pattern matching, feature-based matching, or the like, which are known image analysis techniques.

位置情報取得部22bは、撮影画像P1における被写体の二次元座標を取得できれば上記の構成に限定されず、他の構成にすることもできる。位置情報取得部22bは例えば、センサや測定機器により撮影画像P1における被写体となる対象物の三次元位置座標を取得し、その取得した三次元位置座標と撮影装置21の撮影条件(設置位置や撮影方向等)に基づいて、撮影画像P1における被写体の二次元座標を算出する構成にすることもできる。 The position information acquisition unit 22b is not limited to the above configuration as long as it can acquire the two-dimensional coordinates of the subject in the captured image P1, and may have other configurations. The position information acquisition unit 22b acquires, for example, the three-dimensional position coordinates of the object to be the subject in the photographed image P1 by a sensor or a measuring device, and the acquired three-dimensional position coordinates and the photographing conditions (installation position and photographing) of the photographing device 21. It is also possible to calculate the two-dimensional coordinates of the subject in the captured image P1 based on the direction and the like).

被写体となる対象物の三次元位置座標を取得する手段は、例えば、吊体30、着床ターゲット面31、障害物33などの被写体の形状を認識するトロリ5に設置した三次元レーザーセンサや、トロリ5に対する吊体30の振れ角を検出する振れ角センサなどで構成できる。前述した手段は、他にも例えば、吊具7に設置したGPS受信器や、吊具7を吊り下げているワイヤ6の繰り出し量や巻き取り量を測定するセンサ、吊具7に設置された三次元レーザーセンサなどで構成することもできる。また、前述した手段は、例えば、吊体30を含む複数の画像を撮影するステレオカメラと、そのステレオカメラで撮影した複数の画像に基づいて対象物の三次元位置情報を、マッチング技術を用いて検出する位置検出機器とで構成することもできる。 The means for acquiring the three-dimensional position coordinates of the object to be the subject is, for example, a three-dimensional laser sensor installed in the trolley 5 that recognizes the shape of the subject such as the suspension body 30, the landing target surface 31, and the obstacle 33. It can be configured by a runout angle sensor or the like that detects the runout angle of the suspension body 30 with respect to the trolley 5. The above-mentioned means are also installed in, for example, a GPS receiver installed in the hanging tool 7, a sensor for measuring the feeding amount and the winding amount of the wire 6 that suspends the hanging tool 7, and the hanging tool 7. It can also be configured with a three-dimensional laser sensor or the like. Further, the above-mentioned means uses, for example, a stereo camera that captures a plurality of images including the suspension body 30 and three-dimensional position information of an object based on the plurality of images captured by the stereo camera by using a matching technique. It can also be configured with a position detection device to detect.

生成部22cは、設定部22aから入力される被写体に関する選定データと、画像処理に関する選定データと、表示パターンに関する選定データと、位置情報取得部22bから入力される被写体の二次元座標とに基づいて、撮影画像P1に対して画像処理を施す。そして、設定部22aにおいて予め選定された被写体の視認性を選定されていないその他の被写体の視認性に比して相対的に高くした処理画像P3を生成する。生成部22cは、撮影画像P1を加工して処理画像P3を生成する構成にすることもできるし、撮影画像P1の上に上層画像P2を重畳させた複数のレイヤーからなる処理画像P3を生成する構成にすることもできる。 The generation unit 22c is based on the selection data regarding the subject input from the setting unit 22a, the selection data regarding image processing, the selection data regarding the display pattern, and the two-dimensional coordinates of the subject input from the position information acquisition unit 22b. , Image processing is performed on the captured image P1. Then, the setting unit 22a generates the processed image P3 in which the visibility of the subject selected in advance is relatively higher than the visibility of other subjects that have not been selected. The generation unit 22c may be configured to process the captured image P1 to generate the processed image P3, or generate the processed image P3 composed of a plurality of layers in which the upper layer image P2 is superimposed on the captured image P1. It can also be configured.

図4に例示するように、この実施形態では、生成部22cにより、予め選定された被写体のそれぞれの位置または形状を強調する付加標示50を含む上層画像P2を生成している。そして、図5に例示するように、その生成した上層画像P2を撮影画像P1の上に重畳させた処理画像P3を生成している。 As illustrated in FIG. 4, in this embodiment, the generation unit 22c generates an upper layer image P2 including an additional marking 50 that emphasizes the position or shape of each of the predetermined subjects. Then, as illustrated in FIG. 5, a processed image P3 is generated by superimposing the generated upper layer image P2 on the captured image P1.

図4および図5に例示するように、この実施形態で生成している上層画像P2には、付加標示50として、吊体30の外縁部30aと、着床ターゲット面31の外縁部31aと、障害物33の外縁部33aとをそれぞれ強調する強調線51が含まれている。さらに、上層画像P2には、付加標示50として、係合金具30cと、被係合金具31cと、障害物33の外面部33bとをそれぞれ撮影画像P1における色とは異なる色で着色して強調する着色部52と、着床ターゲット面31の中心位置を示す目印53が含まれている。 As illustrated in FIGS. 4 and 5, in the upper layer image P2 generated in this embodiment, the outer edge portion 30a of the suspension body 30 and the outer edge portion 31a of the landing target surface 31 are shown as additional markings 50. An emphasis line 51 that emphasizes the outer edge portion 33a of the obstacle 33 is included. Further, in the upper layer image P2, as an additional marking 50, the engaging metal fitting 30c, the engaged metal fitting 31c, and the outer surface portion 33b of the obstacle 33 are colored and emphasized with a color different from the color in the captured image P1. A colored portion 52 to be formed and a mark 53 indicating the center position of the landing target surface 31 are included.

図4および図5では、強調線51を太線で示し、着色部52を斜線部で示し、着床ターゲット面31の中心位置を示す目印53を白抜きの円と十字線を組み合わせた印で示している。付加標示50は、被写体毎に線の太さや、線種、配色などを異ならせて互いに区別しやすい標示にするとよい。着床ターゲット面31の中心位置を示す目印53の形状や配色、表示サイズなどは、この実施形態に限定されず、他にも例えば多角形や二重丸、矢印などにすることもできる。生成部22cで生成された処理画像P3は、表示制御部22dに逐次入力される構成になっている。 In FIGS. 4 and 5, the emphasized line 51 is indicated by a thick line, the colored portion 52 is indicated by a shaded portion, and the mark 53 indicating the center position of the landing target surface 31 is indicated by a combination of a white circle and a crosshair. ing. The additional marking 50 may be a marking that can be easily distinguished from each other by making the line thickness, line type, color scheme, etc. different for each subject. The shape, color scheme, display size, and the like of the mark 53 indicating the center position of the landing target surface 31 are not limited to this embodiment, and may be, for example, a polygon, a double circle, an arrow, or the like. The processed image P3 generated by the generation unit 22c is configured to be sequentially input to the display control unit 22d.

表示制御部22dは、生成部22cから入力された処理画像P3を表示装置23に逐次表示させる。表示装置23は、処理装置22から出力された処理画像P3が表示されるモニタである。この実施形態の表示装置23は、入力手段24が内蔵されたタッチパネル式のモニタで構成されている。 The display control unit 22d sequentially displays the processed image P3 input from the generation unit 22c on the display device 23. The display device 23 is a monitor on which the processed image P3 output from the processing device 22 is displayed. The display device 23 of this embodiment is composed of a touch panel type monitor having a built-in input means 24.

入力手段24は設定部22aにデータを入力する手段であり、例えば、タッチパネルやタッチパッド、ボタン、ジョイスティック、マウス、キーボード等で構成される。この実施形態の入力手段24は表示装置23に内蔵されたタッチパネルで構成されている。入力手段24は操作装置13に付属させることもできる。 The input means 24 is a means for inputting data to the setting unit 22a, and is composed of, for example, a touch panel, a touch pad, a button, a joystick, a mouse, a keyboard, and the like. The input means 24 of this embodiment is composed of a touch panel built in the display device 23. The input means 24 can also be attached to the operating device 13.

次にこの操作支援システム20を利用したクレーン1の操作支援方法を説明する。 Next, an operation support method for the crane 1 using the operation support system 20 will be described.

オペレータはクレーン1による荷役作業を開始する前に、操作支援システム20の事前設定として、入力手段24を操作して、視認性を相対的に高くする被写体の選定と、生成部22cで実行する画像処理の選定と、画像処理における表示パターンの選定とを行う。この実施形態では、オペレータが、表示装置23の画面に表示されている設定のアイコンをタップすると、表示装置23の画面に、設定部22aに記憶されている、視認性を相対的に高くする被写体の選択肢と、画像処理の選択肢と、画像処理における表示パターンの選択肢とがそれぞれ表示される構成になっている。 Before starting the cargo handling work by the crane 1, the operator operates the input means 24 as a preset of the operation support system 20 to select a subject whose visibility is relatively high, and an image to be executed by the generation unit 22c. The processing is selected and the display pattern in the image processing is selected. In this embodiment, when the operator taps the setting icon displayed on the screen of the display device 23, the subject stored in the setting unit 22a on the screen of the display device 23 and has a relatively high visibility. The options of the above, the options of the image processing, and the options of the display pattern in the image processing are displayed respectively.

オペレータが、表示装置23の画面をタッチして視認性を相対的に高くする被写体、画像処理、および表示パターンの選定を完了すると、選定された被写体に関する選定データは位置情報取得部22bおよび生成部22cに入力され、画像処理に関する選定データおよび表示パターンに関する選定データは生成部22cに入力される。以上により、操作支援システム20の事前設定が完了する。 When the operator touches the screen of the display device 23 to complete the selection of the subject, the image processing, and the display pattern for which the visibility is relatively high, the selection data regarding the selected subject is the position information acquisition unit 22b and the generation unit. It is input to 22c, and the selection data related to image processing and the selection data related to the display pattern are input to the generation unit 22c. This completes the pre-setting of the operation support system 20.

なお、この実施形態では、操作支援システム20の事前設定をオペレータが行う場合を例示しているが、視認性を相対的に高くする被写体、画像処理、および表示パターンが予め選定されている事前設定データが設定部22aに予め記憶されている構成にすることもできる。この場合には、前述した事前設定の作業を省略できる。 In this embodiment, the case where the operator performs the presetting of the operation support system 20 is illustrated, but the subject, the image processing, and the display pattern for which the visibility is relatively high are preset in advance. The data may be stored in the setting unit 22a in advance. In this case, the preset work described above can be omitted.

図6に例示するように、操作支援システム20の事前設定が完了し、オペレータが操作装置13によりクレーン1の操作を開始すると、撮影装置21により吊体30を含む撮影画像P1が撮影され、その撮影された撮影画像P1のデータが生成部22cに入力される(S10)。次いで、位置情報取得部22bにより、設定部22aにおいて予め選定された被写体の撮影画像P1における二次元座標が取得され、その取得された二次元座標のデータが生成部22cに入力される(S20)。 As illustrated in FIG. 6, when the pre-setting of the operation support system 20 is completed and the operator starts the operation of the crane 1 by the operation device 13, the photographing device 21 photographs the photographed image P1 including the suspension body 30. The captured image P1 data is input to the generation unit 22c (S10). Next, the position information acquisition unit 22b acquires the two-dimensional coordinates of the captured image P1 of the subject selected in advance by the setting unit 22a, and the acquired two-dimensional coordinate data is input to the generation unit 22c (S20). ..

次いで、生成部22cにより、撮影装置21から入力された撮影画像P1のデータと位置情報取得部22bから入力された被写体の二次元座標のデータとに基づいて、設定部22aにおいて予め選定されている被写体の視認性を、選定されていないその他の被写体の視認性に比して相対的に高くした処理画像P3が生成され、その生成された処理画像P3が表示制御部22dに入力される(S30)。 Next, the generation unit 22c selects in advance in the setting unit 22a based on the data of the captured image P1 input from the photographing device 21 and the data of the two-dimensional coordinates of the subject input from the position information acquisition unit 22b. A processed image P3 in which the visibility of the subject is relatively higher than the visibility of other unselected subjects is generated, and the generated processed image P3 is input to the display control unit 22d (S30). ).

次いで、表示制御部22dにより、生成部22cから入力された処理画像P3が表示装置23に表示される(S40)。ステップS40が完了するとスタートに戻る。上述したステップS10からステップS40が所定の周期で繰り返し連続して実行されることで、表示装置23に、処理画像P3が連続して表示される映像がリアルタイムに近い状態で表示される。上述したステップS10〜ステップS40は、オペレータが操作装置13によるクレーン1の操作を終了するまで繰り返し実行される。 Next, the display control unit 22d displays the processed image P3 input from the generation unit 22c on the display device 23 (S40). When step S40 is completed, the process returns to the start. By repeatedly and continuously executing the steps S10 to S40 described above in a predetermined cycle, the image on which the processed image P3 is continuously displayed is displayed on the display device 23 in a state close to real time. The above-mentioned steps S10 to S40 are repeatedly executed until the operator finishes the operation of the crane 1 by the operating device 13.

この操作支援システム20では、ステップS10からステップS40が繰り返し実行されている間においても、事前設定を行ったときと同様の操作を行うことで、視認性を相対的に高くする被写体、画像処理、および表示パターンに関する選定データの変更、更新を行える構成になっている。選定データの変更、更新が行われると、次の周期からは、更新された選定データに基づいてステップS10からステップS40が実行される。 In this operation support system 20, even while steps S10 to S40 are repeatedly executed, the subject and image processing that relatively increase the visibility by performing the same operations as when the presets are performed, The system is such that the selection data related to the display pattern can be changed and updated. When the selection data is changed or updated, steps S10 to S40 are executed from the next cycle based on the updated selection data.

この実施形態では、さらに、表示装置23の画面に表示された処理画像P3に写っている被写体の表示位置をタップすることで、視認性を相対的に高くする被写体、画像処理、および表示パターンに関する選定データの変更、更新を簡易に行える構成になっている。 In this embodiment, further, the subject, image processing, and display pattern that relatively increase the visibility by tapping the display position of the subject displayed on the processed image P3 displayed on the screen of the display device 23 are related. The configuration is such that the selection data can be easily changed and updated.

具体的には、表示装置23の画面における、視認性を相対的に高くする被写体として選定データに含まれている被写体の表示位置をロングタップするとその被写体が、選定データから除外され、選定データから除外されている被写体をロングタップするとその被写体が、視認性を相対的に高くする被写体として選定データに追加される構成になっている。例えば、オペレータが、障害物33に付されている付加標示50を消したい場合には、障害物33の表示位置をロングタップすることで、障害物33に付されている付加標示50を簡易に消せるようになっている。 Specifically, when the display position of a subject included in the selection data as a subject having relatively high visibility on the screen of the display device 23 is long-tapped, the subject is excluded from the selection data and is excluded from the selection data. If you long-tap the excluded subject, that subject will be added to the selection data as a subject with relatively high visibility. For example, when the operator wants to erase the additional marking 50 attached to the obstacle 33, the additional marking 50 attached to the obstacle 33 can be easily removed by long-tapping the display position of the obstacle 33. It can be erased.

また、この実施形態では、表示装置23の画面における、選定データに含まれている被写体の表示位置をダブルタップすると、その被写体に施す画像処理の種類が変更される構成になっている。例えば、オペレータが、吊体30に対して、撮影画像P1に写る吊体30の外縁部30aの上に強調線51を重ねて表示する画像処理から、撮影画像P1を加工して吊体30の外縁部30a(エッジ)を強調する画像処理(シャープネス)に変更したい場合には、吊体30の表示位置をダブルタップすることで、吊体30に施す画像処理の種類を簡易に変更できるようになっている。 Further, in this embodiment, when the display position of the subject included in the selection data is double-tapped on the screen of the display device 23, the type of image processing applied to the subject is changed. For example, from the image processing in which the operator superimposes the emphasis line 51 on the outer edge portion 30a of the suspension body 30 reflected in the captured image P1 on the suspension body 30, the photographed image P1 is processed and the suspension body 30 is displayed. If you want to change to image processing (sharpness) that emphasizes the outer edge 30a (edge), you can easily change the type of image processing applied to the hanging body 30 by double-tapping the display position of the hanging body 30. It has become.

また、表示装置23の画面における、画像処理が施されている被写体の表示位置をシングルタップすると、その被写体に施されている画像処理の表示パターンが変更される構成になっている。例えば、オペレータが、着床ターゲット面31に付されている強調線51の線の色を変更したい場合には、着床ターゲット面31の表示位置をシングルタップすることで、強調線51の線の色を簡易に変更できるようになっている。 Further, when the display position of the subject to which the image processing is applied is single-tapped on the screen of the display device 23, the display pattern of the image processing applied to the subject is changed. For example, when the operator wants to change the color of the line of the emphasis line 51 attached to the landing target surface 31, the line of the emphasis line 51 can be changed by single-tapping the display position of the landing target surface 31. You can easily change the color.

なお、選定データの変更、更新を行う際のタッチパネルの操作方法は、上述した操作方法に限定されず他の操作方法に設定することもできる。即ち、例えば、視認性を相対的に高くする被写体を変更する操作をロングタップではなく、ダブルタップやシングルタップで行う構成にすることもできる。また、この実施形態では、入力手段24がタッチパネルで構成されている場合を例示したが、例えば、入力手段24をマウスやタッチパッドで構成して、処理画像P3上に表示されるカーソルを被写体の上に移動させてクリックすることで、選定データの変更、更新を行える構成にすることもできる。 The operation method of the touch panel when changing or updating the selection data is not limited to the above-mentioned operation method, and can be set to another operation method. That is, for example, the operation of changing the subject having a relatively high visibility can be performed by a double tap or a single tap instead of a long tap. Further, in this embodiment, the case where the input means 24 is configured by the touch panel is illustrated. For example, the input means 24 is configured by a mouse or a touch pad, and the cursor displayed on the processed image P3 is a subject. By moving it up and clicking it, you can change or update the selected data.

このように、操作支援システム20によれば、撮影装置21が撮影した撮影画像P1に写っている被写体のうち、吊体30、着床ターゲット面31、または障害物33の少なくともいずれかを含む予め選定された被写体の視認性を、選定されていないその他の被写体の視認性よりも高めた処理画像P3を表示装置23に表示させる。これにより、表示装置23に撮影画像P1をそのまま表示させる場合よりも、クレーン1を操作するオペレータが、荷役作業を行う際に認識する必要性の高い吊体30や、着床ターゲット面31、障害物33などの特定の被写体の位置や形状をより把握し易くなる。それ故、オペレータによるクレーン1の操作の作業性を向上できる。さらに、オペレータが荷役作業中に注視する被写体を絞ることができ、認識する必要の低い被写体に必要以上に神経を使う必要がなくなるため、オペレータの軽労化を図ることができる。 As described above, according to the operation support system 20, among the subjects captured in the captured image P1 captured by the photographing device 21, at least one of the suspension body 30, the landing target surface 31, or the obstacle 33 is included in advance. The display device 23 displays the processed image P3 in which the visibility of the selected subject is higher than the visibility of the other non-selected subjects. As a result, the suspension body 30, the landing target surface 31, and obstacles that the operator operating the crane 1 needs to recognize when performing cargo handling work, as compared with the case where the captured image P1 is displayed as it is on the display device 23. It becomes easier to grasp the position and shape of a specific subject such as the object 33. Therefore, the workability of the operation of the crane 1 by the operator can be improved. Further, the operator can narrow down the subject to be watched during the cargo handling work, and it is not necessary to use more nerves than necessary for the subject that needs to be recognized, so that the operator can be made lighter.

この実施形態のように、処理画像P3が、撮影画像P1に比して吊体30の外縁部30a、外面部30b、または係合金具30cの少なくともいずれかの視認性を高めた画像であると、荷役作業において認識する必要性の高い吊体30の位置や形状を非常に把握し易くなる。それ故、クレーン1の操作の作業性を向上させるには有利になる。視認性を高める吊体30の部位や画像処理の種類はこの実施形態に限定されず適宜設定できる。例えば、視認性を高める吊体30の部位を吊体30の四隅のコーナー部分のみに設定することもできるし、吊体30の外面部30bに着色部52を重ねて表示する構成にすることもできる。 As in this embodiment, the processed image P3 is an image in which the visibility of at least one of the outer edge portion 30a, the outer surface portion 30b, or the engaging metal fitting 30c of the suspension body 30 is enhanced as compared with the captured image P1. , It becomes very easy to grasp the position and shape of the suspension body 30, which is highly necessary to be recognized in cargo handling work. Therefore, it is advantageous to improve the workability of the operation of the crane 1. The portion of the suspension body 30 for enhancing visibility and the type of image processing are not limited to this embodiment and can be appropriately set. For example, the portion of the hanging body 30 that enhances visibility can be set only at the four corners of the hanging body 30, or the colored portion 52 may be superimposed on the outer surface portion 30b of the hanging body 30 to be displayed. can.

処理画像P3が撮影画像P1に比して着床ターゲット面31の外縁部31a、外面部31b、または被係合金具31cの少なくともいずれかの視認性を高めた画像であると、着床操作において認識する必要性の高い着床ターゲット面31の位置や形状を非常に把握し易くなる。それ故、着床操作の作業性を向上させるには有利になる。視認性を高める着床ターゲット面31の部位や画像処理の種類はこの実施形態に限定されず適宜設定できる。例えば、視認性を高める着床ターゲット面31の部位を着床ターゲット面31の四隅のコーナー部分のみに設定することもできるし、着床ターゲット面31の外面部31bに着色部52を重ねて表示する構成にすることもできる。 When the processed image P3 is an image in which the visibility of at least one of the outer edge portion 31a, the outer surface portion 31b, or the engaged metal fitting 31c of the landing target surface 31 is improved as compared with the captured image P1, in the landing operation. It becomes very easy to grasp the position and shape of the landing target surface 31, which is highly necessary to be recognized. Therefore, it is advantageous to improve the workability of the landing operation. The portion of the landing target surface 31 that enhances visibility and the type of image processing are not limited to this embodiment and can be appropriately set. For example, the portion of the landing target surface 31 that enhances visibility can be set only at the four corners of the landing target surface 31, or the colored portion 52 is superimposed on the outer surface portion 31b of the landing target surface 31 and displayed. It can also be configured to.

この実施形態のように、処理画像P3が撮影画像P1に比して吊体30の係合金具30cと着床ターゲット面31の被係合金具31cの視認性を高めた画像であると、オペレータが係合金具30cと被係合金具31cとの相対的な位置関係をより把握し易くなるので、着床操作における係合金具30cと被係合金具31cとの位置合わせをより行い易くなる。それ故、着床操作の作業性を向上させるには益々有利になる。 As in this embodiment, if the processed image P3 is an image in which the visibility of the engaging metal fitting 30c of the suspension body 30 and the engaged metal fitting 31c of the landing target surface 31 is improved as compared with the captured image P1, the operator. Since it becomes easier to grasp the relative positional relationship between the engaging metal fitting 30c and the engaged metal fitting 31c, it becomes easier to align the engaging metal fitting 30c and the engaged metal fitting 31c in the landing operation. Therefore, it becomes more and more advantageous to improve the workability of the landing operation.

撮影画像P1では、吊体30が接触、衝突する可能性がある障害物33と、吊体30が接触、衝突する可能性のないその他の被写体とを判別することは難しいが、この実施形態のように、処理画像P3が障害物33の外縁部33aまたは外面部33bの視認性を高めた画像であると、注意すべき障害物33の位置や形状を非常に把握し易くなる。それ故、荷役作業中に吊体30を障害物33に接触、衝突させることを回避するには有利になる。 In the captured image P1, it is difficult to distinguish between the obstacle 33 that the suspension body 30 may contact and collide with and another subject that the suspension body 30 does not contact and collide with. As described above, when the processed image P3 is an image in which the visibility of the outer edge portion 33a or the outer surface portion 33b of the obstacle 33 is enhanced, it becomes very easy to grasp the position and shape of the obstacle 33 to be noted. Therefore, it is advantageous to avoid contacting and colliding the suspension body 30 with the obstacle 33 during the cargo handling work.

処理画像P3が、撮影画像P1の上に予め選定された被写体の位置または形状を強調する付加標示50を重畳させた画像であると、被写体の外縁部や外面部、金具等の形状や位置を付加標示50によって明瞭に示すことができるので、予め選定された被写体の形状や位置が非常に把握し易くなる。さらに、それぞれの被写体に付する付加標示50の線種や配色などの表示パターンを異ならせれば、視認性を高めている被写体どうしがより見分け易くなる。 When the processed image P3 is an image in which an additional marking 50 that emphasizes the position or shape of a subject selected in advance is superimposed on the captured image P1, the shape or position of the outer edge portion, outer surface portion, metal fitting, etc. of the subject is displayed. Since it can be clearly indicated by the additional marking 50, it becomes very easy to grasp the shape and position of the subject selected in advance. Further, if the display patterns such as the line type and the color scheme of the additional marking 50 attached to each subject are different, it becomes easier to distinguish the subjects whose visibility is enhanced.

図7に本発明の操作支援システム20の別の実施形態を例示する。 FIG. 7 illustrates another embodiment of the operation support system 20 of the present invention.

図7に例示するように、この実施形態の処理装置22の生成部22cは、撮影画像P1に比して選定されていない被写体の視認性を低下させる画像処理を行なうことで、予め選定された被写体の視認性を、選定されていないその他の被写体の視認性に比して相対的に高くした処理画像P3を生成している。より具体的には、この実施形態では、撮影画像P1に対して予め選定された被写体が写っていない範囲をぼかす画像処理(解像度を下げる画像処理等)を施して、選定されていないその他の被写体を目立たなくすることで、相対的に予め選定された被写体を視覚的により識別し易くした処理画像P3を生成している。図7では、予め選定された被写体を実線で示し、ぼかしを入れているその他の被写体を破線で示している。 As illustrated in FIG. 7, the generation unit 22c of the processing device 22 of this embodiment is selected in advance by performing image processing that reduces the visibility of a subject that has not been selected as compared with the captured image P1. The processed image P3 is generated in which the visibility of the subject is relatively higher than the visibility of other unselected subjects. More specifically, in this embodiment, the captured image P1 is subjected to image processing (image processing for lowering the resolution, etc.) that blurs a range in which a preselected subject is not captured, and other subjects that are not selected. Is made inconspicuous to generate a processed image P3 that makes it easier to visually identify a relatively preselected subject. In FIG. 7, a predetermined subject is shown by a solid line, and other subjects with blurring are shown by a broken line.

選定されていないその他の被写体の視認性を低下させる画像処理としては、ぼかしを入れる画像処理の他に、透過度を高める画像処理や、覆い隠す画像処理(マスキング)、モザイクを入れる画像処理等が例示できる。被写体の視認性を低下させる画像処理は、撮影画像P1を加工する方法で行ってもよいし、撮影画像P1の上に上層画像P2を重畳させる方法で行ってもよい。 As image processing that reduces the visibility of other unselected subjects, in addition to image processing that blurs, image processing that enhances transparency, image processing that masks (masking), image processing that inserts mosaics, etc. It can be illustrated. The image processing for reducing the visibility of the subject may be performed by a method of processing the captured image P1 or by superimposing the upper layer image P2 on the captured image P1.

このように、処理画像P3が、撮影画像P1に比して選択されていないその他の被写体の視認性を低下させた画像であると、荷役作業中にオペレータの目に入る情報を、荷役作業中に視認する必要性の高い被写体に絞ることができる。それ故、オペレータの軽労化を図るには有利になる。 As described above, if the processed image P3 is an image in which the visibility of other subjects that are not selected is reduced as compared with the captured image P1, the information that the operator can see during the cargo handling work is being obtained during the cargo handling work. It is possible to narrow down to subjects that are highly necessary to be visually recognized. Therefore, it is advantageous to reduce the labor of the operator.

この実施形態では、さらに、予め選定された被写体の位置または形状を強調する付加標示50として、吊体30の係合金具30cと着床ターゲット面31の被係合金具31cのそれぞれの位置を示す目印53を処理画像P3に表示させている。図7では、目印53を黒塗りの矢印で例示しているが目印53の形状や色はこの実施形態に限定されず、種々の図形や配色を適用できる。このように、処理画像P3に被写体の位置を示す目印53を表示させる構成にすると、オペレータが被写体の位置を非常に把握し易くなる。 In this embodiment, as additional markings 50 that emphasize the position or shape of the subject selected in advance, the positions of the engaging metal fittings 30c of the hanging body 30 and the engaged metal fittings 31c of the landing target surface 31 are shown. The mark 53 is displayed on the processed image P3. In FIG. 7, the mark 53 is illustrated by a black arrow, but the shape and color of the mark 53 are not limited to this embodiment, and various figures and color schemes can be applied. In this way, if the processed image P3 is configured to display the mark 53 indicating the position of the subject, it becomes very easy for the operator to grasp the position of the subject.

なお、既述した実施形態では、予め選定された被写体の視認性を相対的に高くする画像処理として種々の画像処理を例示したが、生成部22cで実行する画像処理の組み合わせは既述した実施形態に限定されず、適宜組み合わせることができる。例えば、撮影画像P1に対して、予め選定された被写体の外縁部を強調する画像処理と、選択されていないその他の被写体にぼかしを入れる画像処理とを両方適用して処理画像P3を生成することもできる。また、予め選定された被写体の視認性を選定されていないその他の被写体の視認性に比して相対的に高くする画像処理であれば、上記で例示した画像処理に限定されず、その他の画像処理を適用して処理画像P3を生成することもできる。 In the above-described embodiment, various image processes are exemplified as image processes for relatively increasing the visibility of a preselected subject, but the combination of image processes executed by the generation unit 22c is the above-described embodiment. It is not limited to the form and can be combined as appropriate. For example, the processed image P3 is generated by applying both image processing that emphasizes the outer edge of a preselected subject and image processing that blurs other unselected subjects to the captured image P1. You can also. Further, if the image processing is such that the visibility of the preselected subject is relatively higher than the visibility of other unselected subjects, the image processing is not limited to the image processing exemplified above, and other images. Processing can also be applied to generate the processed image P3.

既述した実施形態では、岸壁クレーンに適用した操作支援システム20を例示したが、操作支援システム20は、岸壁クレーンに限らず、コンテナターミナルにおいて、運搬機や蔵置レーンに対してコンテナ32の荷役をする門型クレーンや天井クレーンに適用することもできる。また、操作支援システム20は、コンテナ32の荷役をするコンテナクレーンに限らず、その他の荷役対象物の荷役をする様々なクレーンに適用することができる。 In the above-described embodiment, the operation support system 20 applied to the quay crane has been illustrated, but the operation support system 20 is not limited to the quay crane, and handles the cargo of the container 32 with respect to the transporter and the storage lane at the container terminal. It can also be applied to gated cranes and overhead cranes. Further, the operation support system 20 is not limited to the container crane that handles the cargo of the container 32, and can be applied to various cranes that handle the cargo of other cargo handling objects.

1 クレーン
2 脚構造体
2c 水平梁
5 トロリ
7 吊具
20 操作支援システム
21 撮影装置
22 処理装置
22a 設定部
22b 位置情報取得部
22c 生成部
22d 表示制御部
23 表示装置
24 入力手段
30 吊体
31 着床ターゲット面
32 コンテナ
33 障害物
50 付加標示
P1 撮影画像
P2 上層画像
P3 処理画像
1 Crane 2 Leg structure 2c Horizontal beam 5 Trolley 7 Suspension tool 20 Operation support system 21 Imaging device 22 Processing device 22a Setting unit 22b Position information acquisition unit 22c Generation unit 22d Display control unit 23 Display device 24 Input means 30 Suspension body 31 Arrival Floor Target surface 32 Container 33 Obstacle 50 Additional marking P1 Captured image P2 Upper layer image P3 Processed image

Claims (7)

トロリから吊り下げられた吊体を含む撮影画像を撮影する撮影装置と、前記撮影画像に基づく映像を表示する表示装置とを備えたクレーンの操作支援システムにおいて、
前記撮影装置および前記表示装置に接続された処理装置を備え、
前記処理装置は、前記撮影画像に写り込む被写体のうち、前記吊体、前記吊体を着床させる着床ターゲット面、または前記吊体の荷役経路上に存在する障害物の少なくともいずれかを含む予め選定された前記被写体の視認性を、選定されていないその他の前記被写体の視認性に比して相対的に高くした処理画像を生成し、その生成した前記処理画像を前記表示装置に表示させる構成であることを特徴とするクレーンの操作支援システム。
In a crane operation support system equipped with a photographing device that captures a captured image including a suspended body suspended from a trolley and a display device that displays an image based on the captured image.
The imaging device and the processing device connected to the display device are provided.
The processing device includes at least one of the suspended body, the landing target surface on which the suspended body is landed, or an obstacle existing on the cargo handling path of the suspended body among the subjects reflected in the captured image. A processed image in which the visibility of the subject selected in advance is relatively higher than the visibility of the other unselected subjects is generated, and the generated processed image is displayed on the display device. A crane operation support system characterized by its configuration.
前記処理画像が、前記撮影画像に比して前記吊体の外縁部、前記吊体の外面部、または前記吊体に設けられた係合金具の少なくともいずれかの視認性を高めた画像である請求項1に記載のクレーンの操作支援システム。 The processed image is an image in which the visibility of at least one of the outer edge portion of the hanging body, the outer surface portion of the hanging body, and the engaging metal fitting provided on the hanging body is enhanced as compared with the captured image. The crane operation support system according to claim 1. 前記処理画像が、前記撮影画像に比して前記着床ターゲット面の外縁部、前記着床ターゲット面の外面部、または前記着床ターゲット面に設けられた被係合金具の少なくともいずれかの視認性を高めた画像である請求項1または2に記載のクレーンの操作支援システム。 The processed image is visually recognized as at least one of the outer edge portion of the landing target surface, the outer surface portion of the landing target surface, or the engaged metal fitting provided on the landing target surface as compared with the captured image. The crane operation support system according to claim 1 or 2, which is an image with enhanced properties. 前記処理画像が、前記撮影画像に比して前記障害物の外縁部または外面部の視認性を高めた画像である請求項1〜3のいずれか1項に記載のクレーンの操作支援システム。 The crane operation support system according to any one of claims 1 to 3, wherein the processed image is an image in which the visibility of the outer edge portion or the outer surface portion of the obstacle is enhanced as compared with the captured image. 前記処理画像が、前記予め選定された被写体の位置または形状を強調する付加標示を前記撮影画像の上に重畳させた画像である請求項1〜4のいずれか1項に記載のクレーンの操作支援システム。 The crane operation support according to any one of claims 1 to 4, wherein the processed image is an image in which an additional marking emphasizing the position or shape of the preselected subject is superimposed on the captured image. system. 前記処理画像が、前記撮影画像に比して前記その他の被写体の視認性を低下させた画像である請求項1〜5のいずれか1項に記載のクレーンの操作支援システム。 The crane operation support system according to any one of claims 1 to 5, wherein the processed image is an image in which the visibility of the other subject is reduced as compared with the captured image. 撮影装置によりトロリから吊り下げられた吊体を含む撮影画像を撮影し、その撮影装置が撮影した前記撮影画像に基づく映像を表示装置に表示させるクレーンの操作支援方法において、
前記撮影装置により前記吊体を含む前記撮影画像を撮影するステップと、前記撮影画像に写り込む被写体の前記撮影画像における二次元座標を取得するステップと、その取得した前記二次元座標に基づいて、前記被写体のうち、前記吊体、前記吊体を着床させる着床ターゲット面、または前記吊体の荷役経路上に存在する障害物の少なくともいずれかを含む予め選定された前記被写体の視認性を、選定されていないその他の前記被写体の視認性に比して相対的に高くした処理画像を生成するステップと、その生成した前記処理画像を前記表示装置に表示させるステップと、を含むことを特徴とするクレーンの操作支援方法。
In a crane operation support method in which a photographed image including a suspended body suspended from a trolley is photographed by a photographing device and an image based on the photographed image captured by the photographing device is displayed on a display device.
Based on the step of photographing the photographed image including the suspended body by the photographing apparatus, the step of acquiring the two-dimensional coordinates of the subject reflected in the photographed image in the photographed image, and the acquired two-dimensional coordinates. Among the subjects, the visibility of the predetermined subject including at least one of the suspension body, the landing target surface on which the suspension body is landed, or an obstacle existing on the cargo handling path of the suspension body. It is characterized by including a step of generating a processed image that is relatively higher than the visibility of the other unselected subject, and a step of displaying the generated processed image on the display device. How to support the operation of the crane.
JP2020042143A 2020-03-11 2020-03-11 CRANE OPERATION SUPPORT SYSTEM AND OPERATION SUPPORT METHOD Active JP7290012B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020042143A JP7290012B2 (en) 2020-03-11 2020-03-11 CRANE OPERATION SUPPORT SYSTEM AND OPERATION SUPPORT METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020042143A JP7290012B2 (en) 2020-03-11 2020-03-11 CRANE OPERATION SUPPORT SYSTEM AND OPERATION SUPPORT METHOD

Publications (2)

Publication Number Publication Date
JP2021143038A true JP2021143038A (en) 2021-09-24
JP7290012B2 JP7290012B2 (en) 2023-06-13

Family

ID=77765827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020042143A Active JP7290012B2 (en) 2020-03-11 2020-03-11 CRANE OPERATION SUPPORT SYSTEM AND OPERATION SUPPORT METHOD

Country Status (1)

Country Link
JP (1) JP7290012B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2954312A1 (en) * 2022-04-11 2023-11-21 Sibre Brakes Spain S L SYSTEM TO ASSIST A CRANE IN THE MOVEMENT OF A COVER AND CRANE WHICH INCLUDES SAID SYSTEM (Machine-translation by Google Translate, not legally binding)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005289591A (en) * 2004-03-31 2005-10-20 Mitsui Eng & Shipbuild Co Ltd Container spreader positioning display device
JP2016193777A (en) * 2015-03-31 2016-11-17 三井造船株式会社 Remote operation method for crane and remote operation device for crane
EP3275831A1 (en) * 2017-06-16 2018-01-31 ABB Schweiz AG Modified video stream for supporting remote control of a container crane

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005289591A (en) * 2004-03-31 2005-10-20 Mitsui Eng & Shipbuild Co Ltd Container spreader positioning display device
JP2016193777A (en) * 2015-03-31 2016-11-17 三井造船株式会社 Remote operation method for crane and remote operation device for crane
EP3275831A1 (en) * 2017-06-16 2018-01-31 ABB Schweiz AG Modified video stream for supporting remote control of a container crane

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2954312A1 (en) * 2022-04-11 2023-11-21 Sibre Brakes Spain S L SYSTEM TO ASSIST A CRANE IN THE MOVEMENT OF A COVER AND CRANE WHICH INCLUDES SAID SYSTEM (Machine-translation by Google Translate, not legally binding)

Also Published As

Publication number Publication date
JP7290012B2 (en) 2023-06-13

Similar Documents

Publication Publication Date Title
Fang et al. A framework for real-time pro-active safety assistance for mobile crane lifting operations
JP7008851B2 (en) Guide information display device, guide information display method, and work equipment
JP6965050B2 (en) Guide information display device and crane equipped with it and guide information display method
JP4309439B2 (en) Object take-out device
US9990543B2 (en) Vehicle exterior moving object detection system
JP6838782B2 (en) Container crane control system and container crane control method
US10306149B2 (en) Image processing apparatus, robot system, robot, and image processing method
JP6895835B2 (en) Guide information display device and crane
US9303473B2 (en) Videometric systems and methods for offshore and oil-well drilling
JP6457469B2 (en) Mobile robot interference area setting device
US10393515B2 (en) Three-dimensional scanner and measurement assistance processing method for same
JP5380747B2 (en) Monitoring system and monitoring method under suspended load
JPWO2015145725A1 (en) Information presenting apparatus, crane system and information presenting method
CN111943050B (en) Guide information display device, crane having the same, and guide information display method
JP6928499B2 (en) Guide information display device and work equipment
JP5917178B2 (en) Visual aids
CN110831718A (en) Apparatus and method for automatic seam welding of workpieces comprising a base plate with a pattern of upright profiles
JP7290012B2 (en) CRANE OPERATION SUPPORT SYSTEM AND OPERATION SUPPORT METHOD
WO2020122025A1 (en) Ground surface estimation method, measurement area display system, and crane
JPS6114074B2 (en)
WO2021060466A1 (en) Crane information display system
JP7345335B2 (en) Crane operation support system and crane operation support method
JP6879579B2 (en) Remote control system and remote control method for container cranes
JP6927594B2 (en) Crane operation support system and operation support method
JP6879578B2 (en) Remote control system and remote control method for container cranes

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20220107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20230511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230511

R150 Certificate of patent or registration of utility model

Ref document number: 7290012

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150