KR102135883B1 - System and method for analyzing cargo of crane - Google Patents

System and method for analyzing cargo of crane Download PDF

Info

Publication number
KR102135883B1
KR102135883B1 KR1020180152209A KR20180152209A KR102135883B1 KR 102135883 B1 KR102135883 B1 KR 102135883B1 KR 1020180152209 A KR1020180152209 A KR 1020180152209A KR 20180152209 A KR20180152209 A KR 20180152209A KR 102135883 B1 KR102135883 B1 KR 102135883B1
Authority
KR
South Korea
Prior art keywords
hook
data
unit
image sensor
image data
Prior art date
Application number
KR1020180152209A
Other languages
Korean (ko)
Other versions
KR20200065595A (en
Inventor
신성일
Original Assignee
주식회사 무스마
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 무스마 filed Critical 주식회사 무스마
Priority to KR1020180152209A priority Critical patent/KR102135883B1/en
Publication of KR20200065595A publication Critical patent/KR20200065595A/en
Application granted granted Critical
Publication of KR102135883B1 publication Critical patent/KR102135883B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66CCRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
    • B66C13/00Other constructional features or details
    • B66C13/18Control systems or devices
    • B66C13/40Applications of devices for transmitting control pulses; Applications of remote control devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66CCRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
    • B66C13/00Other constructional features or details
    • B66C13/16Applications of indicating, registering, or weighing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66CCRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
    • B66C13/00Other constructional features or details
    • B66C13/18Control systems or devices
    • B66C13/48Automatic control of crane drives for producing a single or repeated working cycle; Programme control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Control And Safety Of Cranes (AREA)

Abstract

크레인의 인양물 분석 시스템은 크레인의 후크 및 상기 후크에 인양된 인양물을 인식하는 영상 센서부, 상기 영상 센서부에서 측정한 영상 데이터를 바탕으로 상기 후크 및 상기 인양물의 크기 및 위치에 관한 정보를 포함하는 연산 데이터를 생성하는 중앙 연산부, 상기 연산 데이터를 무선으로 전송하는 제1 무선 통신부 및 상기 연산 데이터를 표시하는 제1 표시부를 포함하는 상부 제어부, 상기 연산 데이터를 무선으로 수신하는 제2 무선 통신부 및 상기 연산 데이터를 표시하는 제2 표시부를 포함하는 지상 제어부 및 상기 연산 데이터를 무선으로 수신하고, 상기 연산 데이터를 연산하여 생성한 관제 데이터를 무선으로 전송하는 제3 무선 통신부 및 상기 연산 데이터를 표시하는 제3 표시부를 포함하는 관제부를 포함한다.The crane lifting product analysis system provides information regarding the size and position of the hook and the lifting object based on the hook of the crane and the image sensor unit recognizing the lifting object lifted on the hook, and the image data measured by the image sensor unit. A central control unit for generating calculation data, a first wireless communication unit for wirelessly transmitting the calculation data, an upper control unit including a first display unit for displaying the calculation data, and a second wireless communication unit for wirelessly receiving the calculation data And a terrestrial control unit including a second display unit for displaying the calculation data, and a third wireless communication unit for wirelessly receiving the calculation data and transmitting the control data generated by calculating the calculation data and the calculation data. It includes a control unit including a third display unit.

Description

크레인의 인양물 분석 시스템 및 방법{SYSTEM AND METHOD FOR ANALYZING CARGO OF CRANE} SYSTEM AND METHOD FOR ANALYZING CARGO OF CRANE

본 발명은 크레인의 인양물 분석 시스템 및 방법에 관한 것으로, 보다 상세하게는 인양물의 크기 및 위치를 분석하여 충돌을 방지할 수 있는 크레인의 인양물 분석 시스템 및 방법에 관한 것이다. The present invention relates to a system and method for analyzing a lifting product of a crane, and more particularly, to a lifting system and method for lifting a crane that can prevent collision by analyzing the size and position of the lifting object.

크레인은 무거운 인양물을 운반하기 위한 장치로서, 차량 등 이동수단에 설치되어 건설현장 등에 사용된다. The crane is a device for transporting heavy lifting objects, and is installed in a vehicle such as a vehicle and used in a construction site.

일반적으로 크레인은 무거운 물체를 인양하여 이동하는 작업을 수행한다. 인양물은 크레인의 후크에 로프 등을 이용하여 연결되므로 인양 후 좌우로 이동시 흔들릴 수 있으며, 이 과정에서 인접한 크레인 또는 기타 구조물에 충돌이 발생될 수 있다.In general, a crane lifts and moves a heavy object. Since the lifting object is connected to the hook of the crane using a rope, it can be shaken when moving from side to side after lifting, and collision may occur in an adjacent crane or other structure in this process.

크레인의 인양물이 이동 중 다른 물체와 충돌하는 것을 방지하기 위해 지상에 신호수를 배치하여 충돌 위험을 크레인 운전자에게 알리는 방식이 많이 사용되고 있으나, 크레인 운전자가 신호수의 신호를 잘못 보는 경우도 있고, 신호수가 인양물의 상태를 정확히 파악하지 못하는 경우도 발생되고 있어 인양물의 충돌로 인한 사고를 방지하고 있지 못하는 문제점이 있다.In order to prevent the crane's lifted objects from colliding with other objects during movement, a method of placing the number of signals on the ground to inform the crane driver of the collision is often used, but the crane driver sometimes sees the signal of the signal number incorrectly. There is also a case where it is not possible to accurately grasp the state of the antelope, and thus there is a problem of preventing an accident due to a collision of the antelope.

한국공개특허공보 제10-2018-0111123호(2018.10.11)Korean Patent Publication No. 10-2018-0111123 (2018.10.11)

이에 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로, 본 발명의 목적은 인양물의 크기 및 위치를 분석하여 충돌을 방지할 수 있는 크레인의 인양물 분석 시스템을 제공하는 것이다.Accordingly, the technical problem of the present invention has been devised in this regard, and an object of the present invention is to provide a system for analyzing a lifting object of a crane capable of preventing collision by analyzing the size and position of the lifting object.

본 발명의 다른 목적은 인양물의 크기 및 위치를 분석하여 충돌을 방지할 수 있는 크레인의 인양물 분석 방법을 제공하는 것이다.Another object of the present invention is to provide a method for analyzing the lift of the crane that can prevent the collision by analyzing the size and position of the lift.

상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 크레인의 인양물 분석 시스템은 크레인의 후크 및 상기 후크에 인양된 인양물을 인식하는 영상 센서부, 상기 영상 센서부에서 측정한 영상 데이터를 바탕으로 상기 후크 및 상기 인양물의 크기 및 위치에 관한 정보를 포함하는 연산 데이터를 생성하는 중앙 연산부, 상기 연산 데이터를 무선으로 전송하는 제1 무선 통신부 및 상기 연산 데이터를 표시하는 제1 표시부를 포함하는 상부 제어부, 상기 연산 데이터를 무선으로 수신하는 제2 무선 통신부 및 상기 연산 데이터를 표시하는 제2 표시부를 포함하는 지상 제어부 및 상기 연산 데이터를 무선으로 수신하고, 상기 연산 데이터를 연산하여 생성한 관제 데이터를 무선으로 전송하는 제3 무선 통신부 및 상기 연산 데이터를 표시하는 제3 표시부를 포함하는 관제부를 포함한다.The lifting system of a crane according to an embodiment for realizing the object of the present invention includes an image sensor unit for recognizing a hook of a crane and a lifting object lifted on the hook, and image data measured by the image sensor unit. A central operation unit for generating calculation data including information on the size and position of the hook and the lifting object, a first wireless communication unit for wirelessly transmitting the calculation data, and a first display unit for displaying the calculation data Control data generated by wirelessly receiving the operation data and calculating the operation data, including an upper control unit, a second wireless communication unit which wirelessly receives the operation data, and a second display unit that displays the operation data, and wirelessly receiving the operation data It includes a third wireless communication unit for wirelessly transmitting and a control unit including a third display unit for displaying the calculation data.

본 발명의 일 실시예에 있어서, 상기 영상 센서부는 기계 학습 기반의 Fast R-CNN을 적용한 물체 인식 알고리즘을 이용하여 상기 후크 및 상기 인양물을 인식할 수 있다.In one embodiment of the present invention, the image sensor unit may recognize the hook and the salvage using an object recognition algorithm to which a machine learning based Fast R-CNN is applied.

본 발명의 일 실시예에 있어서, 상기 영상 센서부는 30fps 이상의 속도로 상기 후크 및 상기 인양물을 인식할 수 있다. In one embodiment of the present invention, the image sensor unit may recognize the hook and the lifting object at a speed of 30 fps or more.

본 발명의 일 실시예에 있어서, 상기 중앙 연산부는 상기 영상 데이터를 바탕으로 전체 화면 픽셀 수대비 상기 후크의 이미지가 차지하는 픽셀 수로 상기 후크의 상대적 크기를 연산할 수 있다.In one embodiment of the present invention, the central operation unit may calculate the relative size of the hook based on the image data in terms of the number of pixels occupied by the hook image relative to the number of full screen pixels.

본 발명의 일 실시예에 있어서, 상기 중앙 연산부는 상기 영상 데이터를 바탕으로 상기 영상 센서부와 상기 후크 사이의 실제 거리를 연산하며, 상기 영상 센서부와 상기 후크 사이의 실제 거리는 아래의 수학식에 의해 정의될 수 있다.In one embodiment of the present invention, the central operation unit calculates an actual distance between the image sensor unit and the hook based on the image data, and the actual distance between the image sensor unit and the hook is expressed by the following equation. Can be defined by

Figure 112018120133924-pat00001
Figure 112018120133924-pat00001

여기서, d는 영상 센서부와 후크 사이의 거리,

Figure 112018120133924-pat00002
는 상기 영상 센서부의 화각의 1/2, B는 후크의 실제 면적, a는 영상 데이터 내의 전체 화면 픽셀 수, b는 영상 데이터 내에서 후크가 차지하는 픽셀 수를 나타낸다.Here, d is the distance between the image sensor unit and the hook,
Figure 112018120133924-pat00002
Is 1/2 of the angle of view of the image sensor unit, B is the actual area of the hook, a is the total number of screen pixels in the image data, and b is the number of pixels occupied by the hook in the image data.

본 발명의 일 실시예에 있어서, 상기 중앙 연산부는 상기 영상 데이터를 바탕으로 상기 후크 주변의 영상을 확대한 확대 영상 데이터를 생성하고, 상기 확대 영상 데이터에서 상기 후크와 일정한 간격을 유지하는 물체를 인양물로 인식하며, 상기 영상 센서부와 상기 후크 사이의 실제 거리에 따른 상기 확대 영상 데이터 내의 이미지의 크기 변화를 이용하여 상기 인양물의 크기를 연산할 수 있다.In one embodiment of the present invention, the central operation unit generates enlarged image data that enlarges an image around the hook based on the image data, and lifts an object maintaining a constant distance from the hook in the enlarged image data. Recognized as water, the size of the lift can be calculated using a change in size of an image in the enlarged image data according to an actual distance between the image sensor unit and the hook.

본 발명의 일 실시예에 있어서, 상기 중앙 연산부가 연산하는 상기 인양물의 크기는 아래의 수학식에 의해 정의될 수 있다.In one embodiment of the present invention, the size of the lifting object calculated by the central operation unit may be defined by the following equation.

Figure 112018120133924-pat00003
Figure 112018120133924-pat00003

여기서, B는 인양물의 실제 면적, d는 영상 센서부와 후크 사이의 거리,

Figure 112018120133924-pat00004
는 상기 영상 센서부의 화각의 1/2, a는 영상 데이터 내의 전체 화면 픽셀 수, b는 영상 데이터 내에서 인양물이 차지하는 픽셀 수를 나타낸다.Here, B is the actual area of the lift, d is the distance between the image sensor unit and the hook,
Figure 112018120133924-pat00004
Is 1/2 of the angle of view of the image sensor unit, a is the total number of screen pixels in the image data, and b is the number of pixels occupied by the salvage in the image data.

본 발명의 일 실시예에 있어서, 상기 제1 표시부 내지 제3 표시부에 표시되는 정보는 시각 또는 청각에 의한 정보일 수 있다.In one embodiment of the present invention, the information displayed on the first to third display units may be visual or auditory information.

상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 크레인의 인양물 분석 방법은 영상 센서부가 크레인의 후크 및 상기 후크에 인양된 인양물을 인식하여 영상 데이터를 생성하는 단계, 중앙 연산부가 상기 영상 데이터를 바탕으로 상기 후크 및 상기 인양물의 크기 및 위치에 관한 정보를 포함하는 연산 데이터를 생성하는 단계, 제1 무선 통신부가 상기 연산 데이터를 제2 무선 통신부 및 제3 무선 통신부로 전송하는 단계 및 제1 표시부, 제2 표시부 및 제3 표시부가 상기 연산 데이터를 표시하는 단계를 포함한다.The method for analyzing the lift of the crane according to an embodiment for realizing the object of the present invention includes the steps of generating an image data by recognizing the hook of the crane and the lifted object lifted on the hook by the image sensor, and the central operator Generating calculation data including information on the size and position of the hook and the lifting object based on the image data, transmitting the calculation data to the second wireless communication unit and the third wireless communication unit by a first wireless communication unit, and And a step in which the first display unit, the second display unit, and the third display unit display the calculation data.

본 발명의 일 실시예에 있어서, 상기 영상 센서부는 기계 학습 기반의 Fast R-CNN을 적용한 물체 인식 알고리즘을 이용하여 상기 후크 및 상기 인양물을 인식할 수 있다. In one embodiment of the present invention, the image sensor unit may recognize the hook and the salvage using an object recognition algorithm to which a machine learning based Fast R-CNN is applied.

본 발명의 일 실시예에 있어서, 상기 영상 센서부는 30fps 이상의 속도로 상기 후크 및 상기 인양물을 인식할 수 있다.In one embodiment of the present invention, the image sensor unit may recognize the hook and the lifting object at a speed of 30 fps or more.

본 발명의 일 실시예에 있어서, 상기 연산 데이터를 생성하는 단계는 상기 영상 데이터를 바탕으로 전체 화면 픽셀 수 대비 상기 후크의 이미지가 차지하는 픽셀 수로 상기 후크의 상대적 크기를 연산하는 단계, 상기 후크의 상대적 크기와 실제 후크의 크기를 비교하여 상기 영상 센서부와 상기 후크 사이의 실제 거리를 연산하는 단계, 상기 영상 데이터를 바탕으로 상기 후크 주변의 영상을 확대한 확대 영상 데이터를 생성하는 단계, 상기 확대 영상 데이터에서 상기 후크와 일정한 간격을 유지하는 물체를 인양물로 인식하는 단계 및 상기 영상 센서부와 상기 후크 사이의 실제 거리에 따른 상기 확대 영상 데이터 내의 이미지의 크기 변화를 이용하여 상기 인양물의 크기를 연산하는 단계를 포함할 수 있다.In one embodiment of the present invention, the generating of the operation data includes calculating the relative size of the hook based on the image data and the number of pixels occupied by the image of the hook based on the total number of screen pixels, and the relative size of the hook. Comparing the size and the size of the actual hook to calculate the actual distance between the image sensor unit and the hook, generating an enlarged image data that enlarges the image around the hook based on the image data, the enlarged image Recognizing an object that maintains a certain distance from the hook as data as a salvage, and calculating the size of the salvage using a change in the size of the image in the magnified image data according to the actual distance between the image sensor unit and the hook It may include the steps.

본 발명의 일 실시예에 있어서, 상기 영상 센서부와 상기 후크 사이의 실제 거리를 연산하는 단계에서 연산하는 상기 영상 센서부와 상기 후크 사이의 실제 거리는 아래의 수학식에 의해 정의될 수 있다. In one embodiment of the present invention, the actual distance between the image sensor unit and the hook calculated in the step of calculating the actual distance between the image sensor unit and the hook may be defined by the following equation.

Figure 112018120133924-pat00005
Figure 112018120133924-pat00005

여기서, d는 영상 센서부와 후크 사이의 거리,

Figure 112018120133924-pat00006
는 상기 영상 센서부의 화각의 1/2, B는 후크의 실제 면적, a는 영상 데이터 내의 전체 화면 픽셀 수, b는 영상 데이터 내에서 후크가 차지하는 픽셀 수를 나타낸다.Here, d is the distance between the image sensor unit and the hook,
Figure 112018120133924-pat00006
Is 1/2 of the angle of view of the image sensor unit, B is the actual area of the hook, a is the total number of screen pixels in the image data, and b is the number of pixels occupied by the hook in the image data.

본 발명의 일 실시예에 있어서, 상기 인양물의 크기를 연산하는 단계에서 연산하는 인양물의 크기는 아래의 수학식에 의해 정의될 수 있다. In one embodiment of the present invention, the size of the lifting object calculated in the step of calculating the size of the lifting object may be defined by the following equation.

Figure 112018120133924-pat00007
Figure 112018120133924-pat00007

여기서, B는 인양물의 실제 면적, d는 영상 센서부와 후크 사이의 거리,

Figure 112018120133924-pat00008
는 상기 영상 센서부의 화각의 1/2, a는 영상 데이터 내의 전체 화면 픽셀 수, b는 영상 데이터 내에서 인양물이 차지하는 픽셀 수를 나타낸다.Here, B is the actual area of the lift, d is the distance between the image sensor unit and the hook,
Figure 112018120133924-pat00008
Is 1/2 of the angle of view of the image sensor unit, a is the total number of screen pixels in the image data, and b is the number of pixels occupied by the salvage in the image data.

본 발명의 일 실시예에 있어서,In one embodiment of the invention,

본 발명의 일 실시예에 있어서,In one embodiment of the invention,

본 발명에 따르면, 크레인의 인양물 분석 시스템은 인양물의 크기 및 위치에 관한 정보를 정확하게 측정하고, 크레인 운전자, 관리자 및 신호수가 인양물의 위치 및 크기를 쉽게 인식할 수 있도록 정보를 알려줄 수 있다. 이에 따라, 인양물의 이동 중 발생될 수 있는 충돌 사고를 방지할 수 있다.According to the present invention, the crane lift analysis system can accurately measure information about the size and location of the lift, and can inform the crane operator, manager, and signal number to easily recognize the position and size of the lift. Accordingly, it is possible to prevent a collision accident that may occur during movement of the lift.

또한, 크레인의 인양물 분석 시스템의 영상 센서부는 기계 학습 기반의 Fast R-CNN을 적용한 물체 인식 알고리즘을 이용하여 상기 후크 및 상기 인양물을 인식하고, 30fps 이상의 속도로 상기 후크 및 상기 인양물을 인식할 수 있다. 따라서, 실시간 영상에서 지연없이 후크 및 인양물의 위치를 추적할 수 있어 인양물에 대한 정밀한 측정이 가능하다.In addition, the image sensor unit of the lifting product analysis system of the crane recognizes the hook and the lifting object using an object recognition algorithm to which a machine learning-based Fast R-CNN is applied, and recognizes the hook and the lifting object at a speed of 30 fps or more. can do. Therefore, the position of the hook and the lifting object can be tracked without delay in the real-time image, thereby enabling precise measurement of the lifting object.

또한, 무선 통신부들이 서로 각각 데이터를 주고받는 메쉬(mesh) 형태로 네트워크를 형성한다. 따라서, 데이터 전송을 안정적으로 수행할 수 있다.In addition, the wireless communication units form a network in the form of a mesh that exchanges data with each other. Therefore, data transmission can be stably performed.

도 1은 본 발명의 일 실시예에 따른 크레인의 인양물 분석 시스템을 나타내는 블럭도이다.
도 2는 본 발명의 일 실시예에 따른 크레인의 인양물 분석 시스템의 상부 제어부를 나타내는 블럭도이다.
도 3은 본 발명의 일 실시예에 따른 크레인의 인양물 분석 시스템의지상 제어부를 나타내는 블럭도이다.
도 4는 본 발명의 일 실시예에 따른 크레인의 인양물 분석 시스템의 관제부를 나타내는 블럭도이다.
도 5는 본 발명의 일 실시예에 따른 크레인의 인양물 분석 시스템의 Fast R-CNN을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 크레인의 인양물 분석 방법을 나타내는 순서도이다.
도 7은 본 발명의 일 실시예에 따른 크레인의 인양물 분석 방법의 연산 데이터를 생성하는 단계를 나타내는 순서도이다.
도 8은 본 발명의 일 실시예에 따른 크레인의 인양물 분석 시스템의 영상 센서부와 후크 사이의 거리를 계산하는 방법을 설명하기 위한 도면이다.
1 is a block diagram showing a system for analyzing a lift of a crane according to an embodiment of the present invention.
Figure 2 is a block diagram showing the upper control unit of the lifting system of the crane according to an embodiment of the present invention.
Figure 3 is a block diagram showing the ground control of the lifting product analysis system of the crane according to an embodiment of the present invention.
Figure 4 is a block diagram showing the control unit of the lifting system of the crane lift according to an embodiment of the present invention.
5 is a view for explaining the Fast R-CNN of the lift analysis system of the crane according to an embodiment of the present invention.
6 is a flow chart showing a method for analyzing the lift of the crane according to an embodiment of the present invention.
7 is a flowchart illustrating a step of generating calculation data of a method for analyzing a lift of a crane according to an embodiment of the present invention.
8 is a view for explaining a method for calculating the distance between the hook and the image sensor unit of the lifting system of the crane according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 실시예들을 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. The present invention can be applied to various changes and can have various forms, and the embodiments will be described in detail in the text. However, this is not intended to limit the present invention to specific disclosure forms, and it should be understood that all modifications, equivalents, and substitutes included in the spirit and scope of the present invention are included. In describing each drawing, similar reference numerals are used for similar components. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms.

상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The terms are used only for the purpose of distinguishing one component from other components. The terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise.

본 출원에서, "포함하다" 또는 "이루어진다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. In this application, terms such as “comprises” or “consisting of” are intended to indicate the presence of features, numbers, steps, operations, components, parts or combinations thereof described in the specification, one or more other features. It should be understood that the existence or addition possibilities of fields or numbers, steps, actions, components, parts or combinations thereof are not excluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person skilled in the art to which the present invention pertains. Terms, such as those defined in a commonly used dictionary, should be interpreted as having meanings consistent with meanings in the context of related technologies, and should not be interpreted as ideal or excessively formal meanings unless explicitly defined in the present application. Does not.

이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 크레인의 인양물 분석 시스템을 나타내는 블럭도이다. 도 2는 본 발명의 일 실시예에 따른 크레인의 인양물 분석 시스템의 상부 제어부를 나타내는 블럭도이다. 도 3은 본 발명의 일 실시예에 따른 크레인의 인양물 분석 시스템의지상 제어부를 나타내는 블럭도이다. 도 4는 본 발명의 일 실시예에 따른 크레인의 인양물 분석 시스템의 관제부를 나타내는 블럭도이다. 도 5는 본 발명의 일 실시예에 따른 크레인의 인양물 분석 시스템의 Fast R-CNN을 설명하기 위한 도면이다.1 is a block diagram showing a system for analyzing a lift of a crane according to an embodiment of the present invention. Figure 2 is a block diagram showing the upper control unit of the lifting system of the crane according to an embodiment of the present invention. Figure 3 is a block diagram showing the ground control of the lifting product analysis system of the crane according to an embodiment of the present invention. Figure 4 is a block diagram showing the control unit of the lifting system of the crane lift according to an embodiment of the present invention. 5 is a view for explaining the Fast R-CNN of the lift analysis system of the crane according to an embodiment of the present invention.

도 1 내지 도 5를 참조하면, 본 발명의 일 실시예에 따른 크레인의 사이드 풀링 방지 시스템(10)은 상부 제어부(100), 지상 제어부(200) 및 관제부(300)를 포함한다. 1 to 5, the side pulling prevention system 10 of the crane according to an embodiment of the present invention includes an upper control unit 100, a ground control unit 200, and a control unit 300.

상기 상부 제어부(100)는 영상 센서부(110), 중앙 연산부(120), 제1 표시부(130), 제1 무선 통신부(140)를 포함할 수 있다.The upper control unit 100 may include an image sensor unit 110, a central operation unit 120, a first display unit 130, and a first wireless communication unit 140.

상기 영상 센서부(110)는 크레인의 후크 및 상기 후크에 인양된 인양물을 인식하여 영상 데이터를 생성할 수 있다. 상기 영상 센서부(110)는 기계 학습 기반의 Fast R-CNN을 적용한 물체 인식 알고리즘을 이용하여 상기 후크 및 상기 인양물을 인식할 수 있다. The image sensor unit 110 may generate image data by recognizing the hook of the crane and the lifting object lifted on the hook. The image sensor unit 110 may recognize the hook and the lifting object using an object recognition algorithm to which a machine learning-based Fast R-CNN is applied.

상기 Fast R-CNN는 R-CNN의 속도가 느리다는 문제점을 보완하기 위해 개발된 기술이다. R-CNN의 기본적인 구조는 다음과 같다. 입력된 이미지에서 Selective Search라는 Region Proposal 생성 알고리즘을 이용해, 물체가 존재할 것으로 추정되는 Region Proposal들을 추출한다. 이후, 각각의 Region Proposal들은 사각형 모양의 Bounding Box 안의 이미지 형태인데, 모든 Region Proposal들에 대해서 크기를 동일하게 만든 후 CNN을 거쳐 분류하는 작업을 시행한다. 이 과정에서 Bounding Box의 정확한 위치와 크기를 예측하는 모델을 하나 더 이용하게 되는데, Region Proposal을 이용해 이미지 분류를 시행할 경우 물체의 정확한 위치를 파악할 수 없기 때문이다. 따라서 각각의 Bounding Box가 그 내부에 포함된 물체의 정확한 위치와 크기를 잡아줄 수 있도록 하는 작업을 수행하기 위해 회귀 모델을 하나 더 구현하고 있다.The Fast R-CNN is a technology developed to compensate for the problem that the speed of the R-CNN is slow. The basic structure of R-CNN is as follows. Using the Region Proposal generation algorithm called Selective Search from the input image, Region Proposals estimated to exist are extracted. After that, each Region Proposal is in the form of an image in a rectangular bounding box. After making the same size for all Region Proposals, it is classified through CNN. In this process, one more model that predicts the exact location and size of the bounding box is used because it is impossible to determine the exact location of the object when performing image classification using Region Proposal. Therefore, one more regression model is implemented to perform the task of allowing each Bounding Box to pinpoint the exact position and size of the objects contained therein.

그러나, 이러한 R-CNN은 모든 Region Proposal마다 하나의 CNN을 돌려야 하니 당연히 느릴 수밖에 없고, 이미지 특징 추출을 위한 모델, 분류를 위한 모델, Bounding Box를 잡아주는 모델을 동시에 학습해야 하니 학습에 걸리는 시간도 많이 소요될 수밖에 없다.However, these R-CNNs must run one CNN for every Region Proposal, so it must be slow, and the model for extracting image features, the model for classification, and the model for holding the Bounding Box must be trained at the same time. It is bound to take a lot.

이러한 문제점을 해결하기 위해 개발된 기술이 Fast R-CNN이라는 모델이며, Fast R-CNN 모델은 도 5에 도시된 것처럼, Feature를 입력 이미지로부터 뽑아내는 것이 아니라, CNN을 거친 Feature Map 상에서 Spatial Pyramid Pooling의 특수한 형태인 RoI Pooling을 사용하여 Feature를 뽑아낸다는 것이다. 이를 통해 하나의 Region Proposal 당 하나의 CNN이 돌아가면서 느려졌던 네트워크의 구조가 획기적으로 개선되고, 속도가 빨라질 수 있다.The technology developed to solve this problem is a model called Fast R-CNN, and the Fast R-CNN model does not extract a feature from an input image, as shown in FIG. 5, but instead uses Spatial Pyramid Pooling on a Feature Map through CNN. The feature is to extract features using RoI Pooling, a special form of. Through this, the structure of the network that has been slowed down by rotating one CNN per Region Proposal can be dramatically improved and speed can be increased.

또한, 본 발명의 일 실시예에 따른 영상 센서부(110)는 30fps 이상의 속도로 상기 후크 및 상기 인양물을 인식할 수 있다. 따라서, 실시간 영상에서 지연없이 후크 및 인양물의 위치를 추적할 수 있다. In addition, the image sensor unit 110 according to an embodiment of the present invention may recognize the hook and the lifting object at a speed of 30 fps or more. Therefore, it is possible to track the position of the hook and the lifting object without delay in the real-time image.

상기 중앙 연산부(120)는 상기 영상 센서부에서 측정한 영상 데이터를 바탕으로 상기 후크 및 상기 인양물의 크기 및 위치에 관한 정보를 포함하는 연산 데이터를 생성할 수 있다. 상기 중앙 연산부(120)가 연산 데이터를 생성하는 방법에 대해서는 도 6 내지 도 8을 참조하여 상세하게 설명하도록 한다.The central operation unit 120 may generate operation data including information on the size and position of the hook and the lifting object based on the image data measured by the image sensor unit. The method of generating the operation data by the central operation unit 120 will be described in detail with reference to FIGS. 6 to 8.

상기 제1 표시부(130)는 상기 중앙 연산부(120)가 생성한 연산 데이터를 표시할 수 있다. 상기 제1 표시부(130)에 표시되는 정보는 시각 또는 청각에 의한 정보일 수 있다. 예를 들어, 상기 제1 표시부(130)는 디스플레이 장치로 구성될 수 있으며, 상기 후크 및 인양물의 위치 및 크기를 영상으로 표시하고, 이에 대한 정보를 음성으로 안내할 수 있다. 상기 제1 표시부(130)에 표시되는 정보를 바탕으로 크레인의 운전자가 인양물의 위치 및 크기를 인식할 수 있다. 따라서, 인양물의 이동 중 발생될 수 있는 충돌 사고를 방지할 수 있다.The first display unit 130 may display calculation data generated by the central calculation unit 120. The information displayed on the first display unit 130 may be visual or auditory information. For example, the first display unit 130 may be configured as a display device, and the position and size of the hook and lifting object may be displayed as an image, and information on the hook and lift may be guided by voice. Based on the information displayed on the first display unit 130, the operator of the crane can recognize the position and size of the lifting object. Therefore, it is possible to prevent a collision accident that may occur during the movement of the lift.

상기 제1 무선 통신부(140)는 상기 연산 데이터를 제2 무선 통신부(220) 및 제3 무선 통신부(340)로 전송하고, 상기 제2 무선 통신부(220) 및 상기 제3 무선 통신부(340)가 전송하는 각종 데이터를 수신할 수 있다.The first wireless communication unit 140 transmits the calculation data to the second wireless communication unit 220 and the third wireless communication unit 340, and the second wireless communication unit 220 and the third wireless communication unit 340 Various data to be transmitted can be received.

상기 지상 제어부(200)는 제2 표시부(210) 및 제2 무선 통신부(220)를 포함할 수 있다. The ground control unit 200 may include a second display unit 210 and a second wireless communication unit 220.

상기 제2 표시부(210)는 상기 연산 데이터를 표시할 수 있다. 상기 제2 표시부(210)에 표시되는 정보는 시각 또는 청각에 의한 정보일 수 있다. 예를 들어, 상기 제2 표시부(210)는 디스플레이 장치로 구성될 수 있으며, 상기 후크 및 인양물의 위치 및 크기를 영상으로 표시하고, 이에 대한 정보를 음성으로 안내할 수 있다. 상기 제2 표시부(210)에 표시되는 정보를 바탕으로 지상에 배치되는 신호수가 인양물의 위치 및 크기를 인식할 수 있다. 따라서, 신호수는 크레인 운전자에게 인양물의 충돌 위험을 알릴 수 있으며, 이에 따라, 인양물의 이동 중 발생될 수 있는 충돌 사고를 방지할 수 있다.The second display unit 210 may display the calculation data. The information displayed on the second display unit 210 may be visual or auditory information. For example, the second display unit 210 may be configured as a display device, and the position and size of the hook and lifting object may be displayed as an image, and information on the hook and lift may be guided by voice. Based on the information displayed on the second display unit 210, the number of signals disposed on the ground can recognize the position and size of the lift. Therefore, the signal number can inform the crane driver of the risk of collision of the lifting object, and accordingly, it is possible to prevent a collision accident that may occur during movement of the lifting object.

상기 제2 무선 통신부(220)는 상기 제1 무선 통신부(140)가 전송하는 연산 데이터를 무선으로 수신할 수 있으며, 상기 지상 제어부(200)에서 생성하는 각종 데이터를 상기 제1 무선 통신부(140) 및 제3 무선 통신부(340)로 전송할 수 있다. The second wireless communication unit 220 may wirelessly receive calculation data transmitted by the first wireless communication unit 140, and the first wireless communication unit 140 may receive various data generated by the ground control unit 200. And a third wireless communication unit 340.

상기 관제부(300)는 크레인의 작동 상태를 원격으로 관리할 수 있다. 상기 관제부(300)는 제3 표시부(310), 원격 제어부(320), 데이터 저장부(330) 및 제3 무선 통신부(340)를 포함할 수 있다. 상기 관제부(300)는 PC 프로그램, WEB 또는 모바일 프로그램 등으로 구성될 수 있다. The control unit 300 can remotely manage the operating state of the crane. The control unit 300 may include a third display unit 310, a remote control unit 320, a data storage unit 330, and a third wireless communication unit 340. The control unit 300 may be configured as a PC program, WEB or mobile program.

상기 제3 표시부(310)는 상기 제1 무선 통신부(140)가 전송하는 연산 데이터를 표시할 수 있다. 상기 제3 표시부(310)에 표시되는 정보는 시각 또는 청각에 의한 정보일 수 있다. 예를 들어, 상기 제3 표시부(310)는 디스플레이 장치로 구성될 수 있으며, 상기 후크 및 인양물의 위치 및 크기를 영상으로 표시하고, 이에 대한 정보를 음성으로 안내할 수 있다. 상기 제3 표시부(310)에 표시되는 정보를 바탕으로 관제부에 배치되는 관리자가 인양물의 위치 및 크기를 인식할 수 있다. 따라서, 관리자는 크레인 운전자에게 인양물의 충돌 위험을 알릴 수 있으며, 필요한 경우 원격으로 크레인의 동작을 정지시키거나 크레인의 위치를 이동시킬 수 있다. 이에 따라, 인양물의 이동 중 발생될 수 있는 충돌 사고를 방지할 수 있다.The third display unit 310 may display calculation data transmitted by the first wireless communication unit 140. The information displayed on the third display unit 310 may be visual or auditory information. For example, the third display unit 310 may be configured as a display device, and the position and size of the hook and lifting object may be displayed as an image, and information on this may be guided by voice. Based on the information displayed on the third display unit 310, the manager disposed in the control unit can recognize the location and size of the lift. Accordingly, the manager can inform the crane operator of the risk of collision of the lift, and if necessary, remotely stop the operation of the crane or move the position of the crane. Accordingly, it is possible to prevent a collision accident that may occur during movement of the lift.

상기 원격 제어부(320)는 상기 영상 데이터 및 상기 연산 데이터를 바탕으로 크레인의 동작을 원격으로 제어할 수 있다. 예를 들어, 상기 센서 데이터 또는 상기 연산 데이터가 인양물의 충돌 가능성이 있는 것으로 나타날 때, 크레인의 작동을 원격으로 정지시키거나 크레인의 위치를 원격으로 이동시킬 수 있다. The remote control unit 320 may remotely control the operation of the crane based on the image data and the calculation data. For example, when the sensor data or the calculation data shows that there is a possibility of collision of lifting objects, the operation of the crane can be stopped remotely or the position of the crane can be moved remotely.

상기 데이터 저장부(330)는 상기 영상 데이터, 상기 연산 데이터 및 상기 원격 제어부(320)가 원격으로 크레인을 제어한 정보를 포함하는 데이터를 저장할 수 있다. 상기 데이터 저장부(330)에 저장된 데이터들은 상기 중앙 연산부(220)가 인양물의 위치 및 크기를 연산하는 과정에서 연산의 자료로 이용될 수 있다. The data storage unit 330 may store data including the image data, the calculation data, and information remotely controlled by the remote control unit 320. The data stored in the data storage unit 330 may be used as data for calculation in the process of the central calculation unit 220 calculating the position and size of the lift.

상기 제3 무선 통신부(340)는 상기 제1 무선 통신부(140) 및 상기 제2 무선 통신부(220)가 전송하는 데이터를 수신하고, 상기 제1 무선 통신부(140) 및 상기 제2 무선 통신부(220)에 각종 데이터를 전송할 수 있다.The third wireless communication unit 340 receives data transmitted by the first wireless communication unit 140 and the second wireless communication unit 220, and the first wireless communication unit 140 and the second wireless communication unit 220 ) Can transmit various data.

상기 제1 무선 통신부(140), 상기 제2 무선 통신부(230) 및 상기 제3 무선 통신부(340)는 서로 각각 데이터를 주고받는 메쉬(mesh) 형태로 네트워크를 형성한다. 따라서, 데이터 전송을 안정적으로 수행할 수 있다.The first wireless communication unit 140, the second wireless communication unit 230, and the third wireless communication unit 340 form a network in the form of a mesh that exchanges data with each other. Therefore, data transmission can be stably performed.

도 6은 본 발명의 일 실시예에 따른 크레인의 인양물 분석 방법을 나타내는 순서도이다. 도 7은 본 발명의 일 실시예에 따른 크레인의 인양물 분석 방법의 연산 데이터를 생성하는 단계를 나타내는 순서도이다. 도 8은 본 발명의 일 실시예에 따른 크레인의 인양물 분석 시스템의 영상 센서부와 후크 사이의 거리를 계산하는 방법을 설명하기 위한 도면이다.6 is a flow chart showing a method for analyzing the lift of the crane according to an embodiment of the present invention. 7 is a flowchart illustrating a step of generating calculation data of a method for analyzing a lift of a crane according to an embodiment of the present invention. 8 is a view for explaining a method for calculating the distance between the hook and the image sensor unit of the lifting system of the crane according to an embodiment of the present invention.

도 6 내지 도 8을 참조하면, 본 발명의 일 실시예에 따른 크레인의 인양물 분석 방법은 영상 센서부가 크레인의 후크 및 상기 후크에 인양된 인양물을 인식하여 영상 데이터를 생성하는 단계(S100), 중앙 연산부가 상기 영상 데이터를 바탕으로 상기 후크 및 상기 인양물의 크기 및 위치에 관한 정보를 포함하는 연산 데이터를 생성하는 단계(S200), 제1 무선 통신부가 상기 연산 데이터를 제2 무선 통신부 및 제3 무선 통신부로 전송하는 단계(S300) 및 제1 표시부, 제2 표시부 및 제3 표시부가 상기 연산 데이터를 표시하는 단계(S400)를 포함한다.Referring to FIGS. 6 to 8, a method for analyzing a lift object of a crane according to an embodiment of the present invention includes generating an image data by recognizing a hook of the crane and a lift object lifted on the hook (S100) , Generating a calculation data including information on the size and position of the hook and the lifting object based on the image data (S200), wherein the first wireless communication unit generates the calculation data using the second wireless communication unit and the second wireless communication unit. 3 transmitting to the wireless communication unit (S300) and the first display unit, the second display unit and the third display unit (S400) for displaying the calculation data.

상기 영상 센서부가 크레인의 후크 및 상기 후크에 인양된 인양물을 인식하여 영상 데이터를 생성하는 단계(S100)에서는 상기 영상 센서부가 크레인의 후크 및 상기 후크에 인양된 인양물을 인식하여 영상 데이터를 생성할 수 있다. 상기 영상 센서부는 기계 학습 기반의 Fast R-CNN을 적용한 물체 인식 알고리즘을 이용하여 상기 후크 및 상기 인양물을 인식할 수 있다. 또한, 영상 센서부는 30fps 이상의 속도로 상기 후크 및 상기 인양물을 인식할 수 있다.In the step S100 of generating the image data by recognizing the hook of the crane and the lifted object on the hook (S100), the image sensor unit recognizes the lifted object on the hook of the crane and the hook and generates image data. can do. The image sensor unit may recognize the hook and the salvage using an object recognition algorithm to which a machine learning-based Fast R-CNN is applied. In addition, the image sensor unit may recognize the hook and the lifting object at a speed of 30 fps or more.

상기 중앙 연산부가 상기 영상 데이터를 바탕으로 상기 후크 및 상기 인양물의 크기 및 위치에 관한 정보를 포함하는 연산 데이터를 생성하는 단계(S200)에서는 영상 데이터를 바탕으로 상기 후크 및 상기 인양물의 크기 및 위치에 관한 정보를 포함하는 연산 데이터를 생성할 수 있다. In the step (S200) of generating the calculation data including information on the size and position of the hook and the lifting object based on the image data, the central computing unit determines the size and position of the hook and the lifting object based on the image data. It is possible to generate computational data including information about.

상기 중앙 연산부가 상기 영상 데이터를 바탕으로 상기 후크 및 상기 인양물의 크기 및 위치에 관한 정보를 포함하는 연산 데이터를 생성하는 단계(S200)는 상기 영상 데이터를 바탕으로 전체 화면 픽셀 수 대비 상기 후크의 이미지가 차지하는 픽셀 수로 상기 후크의 상대적 크기를 연산하는 단계(S210), 상기 후크의 상대적 크기와 실제 후크의 크기를 비교하여 상기 영상 센서부와 상기 후크 사이의 실제 거리를 연산하는 단계(S220), 상기 영상 데이터를 바탕으로 상기 후크 주변의 영상을 확대한 확대 영상 데이터를 생성하는 단계(S230), 상기 확대 영상 데이터에서 상기 후크와 일정한 간격을 유지하는 물체를 인양물로 인식하는 단계(S240) 및 상기 영상 센서부와 상기 후크 사이의 실제 거리에 따른 상기 확대 영상 데이터 내의 이미지의 크기 변화를 이용하여 상기 인양물의 크기를 연산하는 단계(S250)를 포함할 수 있다. The step of generating the calculation data including information on the size and position of the hook and the lifting object based on the image data by the central operator (S200) is based on the image data, the image of the hook compared to the total number of screen pixels. Computing the relative size of the hook with the number of pixels occupied by (S210), Comparing the relative size of the hook and the actual size of the hook to calculate the actual distance between the image sensor unit and the hook (S220), the Generating enlarged image data by enlarging the image around the hook based on the image data (S230), Recognizing an object maintaining a certain distance from the hook as the salvage object in the enlarged image data (S240) and the It may include the step of calculating the size of the lifting object using the size change of the image in the enlarged image data according to the actual distance between the image sensor unit and the hook (S250).

상기 후크의 상대적 크기를 연산하는 단계(S210)에서는 영상 데이터의 전체 화면의 픽셀 수 대비 상기 후크의 이미지가 차지하는 픽셀 수로 상기 후크의 상대적 크기를 연산할 수 있다. In the step of calculating the relative size of the hook (S210), the relative size of the hook may be calculated from the number of pixels occupied by the hook image to the number of pixels of the entire screen of image data.

이후, 상기 영상 센서부와 상기 후크 사이의 실제 거리를 연산하는 단계(S220)에서는 상기 후크의 상대적 크기와 실제 후크의 크기를 비교하여 영상 센서부와 상기 후크 사이의 실제 거리를 연산할 수 있다. Thereafter, in step S220 of calculating the actual distance between the image sensor unit and the hook, the actual distance between the image sensor unit and the hook may be calculated by comparing the relative size of the hook with the size of the actual hook.

도 8에 도시된 바와 같이, 상기 영상 센서부와 후크 사이의 거리를 d, 상기 영상 센서부의 화각의 1/2을

Figure 112018120133924-pat00009
, 후크의 실제 면적을 B라고 하면, 전체 이미지에서의 한변의 실제 길이는
Figure 112018120133924-pat00010
가 되고, 전체 이미지의 실제 면적은
Figure 112018120133924-pat00011
이 된다. 이때, 영상 데이터 내의 전체 화면 픽셀 수를 a, 영상 데이터 내에서 후크가 차지하는 픽셀 수를 b하고 하면, 아래의 수학식 1과 같은 비례식이 정의될 수 있다.As shown in Figure 8, d the distance between the image sensor unit and the hook, 1/2 of the angle of view of the image sensor unit
Figure 112018120133924-pat00009
, If the actual area of the hook is B, the actual length of one side of the entire image is
Figure 112018120133924-pat00010
And the actual area of the entire image
Figure 112018120133924-pat00011
It becomes. At this time, if the total number of screen pixels in the image data is a and the number of pixels occupied by the hook in the image data is b, a proportional expression as in Equation 1 below may be defined.

수학식 1Equation 1

Figure 112018120133924-pat00012
Figure 112018120133924-pat00012

상기 수학식 1을 정리하면, 아래의 수학식 2와 같이 정의될 수 있다.In summary, Equation 1 may be defined as Equation 2 below.

수학식 2Equation 2

Figure 112018120133924-pat00013
Figure 112018120133924-pat00013

상기 수학식 2를 상기 영상 센서부와 후크 사이의 거리인 d에 관해 정리하면, 상기 영상 센서부와 후크 사이의 거리는 아래의 수학식 3으로 정의될 수 있다.Summarizing Equation 2 with respect to d, which is a distance between the image sensor unit and the hook, the distance between the image sensor unit and the hook may be defined by Equation 3 below.

수학식 3Equation 3

Figure 112018120133924-pat00014
Figure 112018120133924-pat00014

상기 영상 센서부가 측정하는 촬영 범위는 3차원 형태로 계산하면 피라미드 형상으로 보여진다. 또한, 영상 센서부와 후크 사이의 거리에 따라 영상 데이터에 포함되는 이미지의 크기는 변화될 수 있으며, 상기 영상 센서부와 상기 후크 사이의 실제 거리에 따른 상기 확대 영상 데이터 내의 이미지의 크기 변화를 이용하여 후크과 지그 사이의 거리를 계산할 수 있다. 또한, 영상 데이터에 포함되는 이미지에서 후크의 위치에 따라 측정 각도를 보정함으로써 측정의 정확성을 향상시킬 수 있다. The imaging range measured by the image sensor unit is displayed in a pyramid shape when calculated in a three-dimensional form. In addition, the size of the image included in the image data may be changed according to the distance between the image sensor unit and the hook, and the size change of the image in the enlarged image data according to the actual distance between the image sensor unit and the hook may be used. The distance between the hook and the jig can be calculated. In addition, the accuracy of the measurement can be improved by correcting the measurement angle according to the position of the hook in the image included in the image data.

상기 영상 센서부와 상기 후크 사이의 실제 거리가 계산되면, 검출된 후크 위치 주변의 새로운 영역을 지정하여 영상을 확대할 수 있다. 상기 확대 영상 데이터를 생성하는 단계(S230)에서는 상기 후크에 인양되는 인양물을 인식하기 위해 상기 영상 데이터를 바탕으로 상기 후크 주변의 영상을 확대한 확대 영상 데이터를 생성할 수 있다. 전체 화면에서는 인양물과 동일한 물체가 많아 실제 인양물의 인식이 어려울 수 있으므로 확대 영상 데이터를 이용한다. 인양물을 인식하는 기준은 후크가 될 수 있으며, 후크와 동일한 간격을 유지하는 물체를 인양물로 인식한다(S240). When the actual distance between the image sensor unit and the hook is calculated, an image may be enlarged by designating a new area around the detected hook position. In the generating of the enlarged image data (S230), the enlarged image data may be generated by enlarging an image around the hook based on the image data in order to recognize a lifted object that is lifted on the hook. Since there are many objects identical to the lifting object on the entire screen, it may be difficult to recognize the actual lifting object. The standard for recognizing an object can be a hook, and an object maintaining the same distance as the hook is recognized as an object (S240).

인양물이 인식되면, 상기 인양물의 크기를 연산하는 단계(S250)에서 상기 영상 센서부와 상기 후크 사이의 실제 거리에 따른 상기 확대 영상 데이터 내의 이미지의 크기 변화를 이용하여 상기 인양물의 크기를 연산할 수 있다. 이때, 후크와 지그 사이의 거리를 이용하여 인양물의 크기를 계산할 수 있으며, 인양물의 크기는 아래의 수학식 4에 의해 정의될 수 있다. When an object is recognized, in step S250 of calculating the size of the object, the size of the object is calculated using a change in size of an image in the enlarged image data according to an actual distance between the image sensor unit and the hook. Can. At this time, the size of the lift can be calculated using the distance between the hook and the jig, and the size of the lift can be defined by Equation 4 below.

수학식 4Equation 4

Figure 112018120133924-pat00015
Figure 112018120133924-pat00015

여기서, B는 인양물의 실제 면적, d는 영상 센서부와 후크 사이의 거리,

Figure 112018120133924-pat00016
는 상기 영상 센서부의 화각의 1/2, a는 영상 데이터 내의 전체 화면 픽셀 수, b는 영상 데이터 내에서 인양물이 차지하는 픽셀 수를 나타낸다.Here, B is the actual area of the lift, d is the distance between the image sensor unit and the hook,
Figure 112018120133924-pat00016
Is 1/2 of the angle of view of the image sensor unit, a is the total number of screen pixels in the image data, and b is the number of pixels occupied by the salvage in the image data.

상기 제1 무선 통신부가 상기 연산 데이터를 제2 무선 통신부 및 제3 무선 통신부로 전송하는 단계(S300)에서는 상기 인양물의 크기 및 위치에 관한 정보를 포함하는 연산 데이터를 전송할 수 있다. In the step (S300) of the first wireless communication unit transmitting the calculation data to the second wireless communication unit and the third wireless communication unit, operation data including information regarding the size and location of the lifting object may be transmitted.

상기 무선 통신부들이 연산 데이터를 전송받은 후, 상기 연산 데이터를 표시하는 단계(S400)에서 제1 표시부, 제2 표시부 및 제3 표시부가 상기 연산 데이터를 표시할 수 있다. After the wireless communication units receive the operation data, in operation S400 of displaying the operation data, the first display unit, the second display unit, and the third display unit may display the operation data.

따라서, 크레인 운전자, 관리자 및 신호수가 인양물의 위치 및 크기를 쉽게 인식할 수 있으므로, 인양물의 이동 중 발생될 수 있는 충돌 사고를 방지할 수 있다.Therefore, since the crane operator, the manager, and the signal number can easily recognize the position and size of the lifting object, it is possible to prevent a collision accident that may occur during the moving of the lifting object.

본 발명에 따르면, 크레인의 인양물 분석 시스템은 인양물의 크기 및 위치에 관한 정보를 정확하게 측정하고, 크레인 운전자, 관리자 및 신호수가 인양물의 위치 및 크기를 쉽게 인식할 수 있도록 정보를 알려줄 수 있다. 이에 따라, 인양물의 이동 중 발생될 수 있는 충돌 사고를 방지할 수 있다.According to the present invention, the crane lift analysis system can accurately measure information about the size and location of the lift, and can inform the crane operator, manager, and signal number to easily recognize the position and size of the lift. Accordingly, it is possible to prevent a collision accident that may occur during movement of the lift.

또한, 크레인의 인양물 분석 시스템의 영상 센서부는 기계 학습 기반의 Fast R-CNN을 적용한 물체 인식 알고리즘을 이용하여 상기 후크 및 상기 인양물을 인식하고, 30fps 이상의 속도로 상기 후크 및 상기 인양물을 인식할 수 있다. 따라서, 실시간 영상에서 지연없이 후크 및 인양물의 위치를 추적할 수 있어 인양물에 대한 정밀한 측정이 가능하다.In addition, the image sensor unit of the lifting product analysis system of the crane recognizes the hook and the lifting object using an object recognition algorithm to which a machine learning-based Fast R-CNN is applied, and recognizes the hook and the lifting object at a speed of 30 fps or more. can do. Therefore, the position of the hook and the lifting object can be tracked without delay in the real-time image, thereby enabling precise measurement of the lifting object.

또한, 무선 통신부들이 서로 각각 데이터를 주고받는 메쉬(mesh) 형태로 네트워크를 형성한다. 따라서, 데이터 전송을 안정적으로 수행할 수 있다.In addition, the wireless communication units form a network in the form of a mesh that exchanges data with each other. Therefore, data transmission can be stably performed.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 통상의 기술자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to embodiments, those skilled in the art can variously modify and change the present invention without departing from the spirit and scope of the present invention described in the claims below. You will understand that there is.

10: 인양물 분석 시스템
100: 상부 제어부
110: 영상 센서부
120: 중앙 연산부
130: 제1 표시부
140: 제1 무선 통신부
200: 지상 제어부
210: 제2 표시부
220: 제2 무선 통신부
300: 관제부
310: 제3 표시부
320: 원격 제어부
330: 데이터 저장부
340: 제3 무선 통신부
10: lifting product analysis system
100: upper control
110: image sensor unit
120: central operation unit
130: first display unit
140: first wireless communication unit
200: ground control
210: second display unit
220: second wireless communication unit
300: control unit
310: third display unit
320: remote control
330: data storage
340: third wireless communication unit

Claims (14)

크레인의 후크 및 상기 후크에 인양된 인양물을 인식하는 영상 센서부, 상기 영상 센서부에서 측정한 영상 데이터를 바탕으로 상기 후크 및 상기 인양물의 크기 및 위치에 관한 정보를 포함하는 연산 데이터를 생성하는 중앙 연산부, 상기 연산 데이터를 무선으로 전송하는 제1 무선 통신부 및 상기 연산 데이터를 표시하는 제1 표시부를 포함하는 상부 제어부;
상기 연산 데이터를 무선으로 수신하는 제2 무선 통신부 및 상기 연산 데이터를 표시하는 제2 표시부를 포함하는 지상 제어부; 및
상기 연산 데이터를 무선으로 수신하고, 상기 연산 데이터를 연산하여 생성한 관제 데이터를 무선으로 전송하는 제3 무선 통신부, 상기 연산 데이터를 표시하는 제3 표시부, 상기 상부 제어부를 원격으로 제어하는 원격 제어부 및 상기 영상 데이터 및 상기 연산 데이터를 저장하는 데이터 저장부를 포함하는 관제부를 포함하고,
상기 중앙 연산부는 상기 영상 데이터를 바탕으로 전체 화면 픽셀 수대비 상기 후크의 이미지가 차지하는 픽셀 수로 상기 후크의 상대적 크기를 연산하고,
상기 중앙 연산부는 상기 영상 데이터를 바탕으로 상기 영상 센서부와 상기 후크 사이의 실제 거리를 연산하며, 상기 영상 센서부와 상기 후크 사이의 실제 거리는 아래의 수학식에 의해 정의되는 크레인의 인양물 분석 시스템.
Figure 112020024528502-pat00033

여기서, d는 영상 센서부와 후크 사이의 거리,
Figure 112020024528502-pat00034
는 상기 영상 센서부의 화각의 1/2, B는 후크의 실제 면적, a는 영상 데이터 내의 전체 화면 픽셀 수, b는 영상 데이터 내에서 후크가 차지하는 픽셀 수를 나타냄.
Generating calculation data including information on the size and position of the hook and the lifting object based on the image data measured by the hook and the hook of the crane and the image sensor unit that recognizes the lifting object lifted on the hook An upper control unit including a central operation unit, a first wireless communication unit for wirelessly transmitting the operation data, and a first display unit for displaying the operation data;
A ground control unit including a second wireless communication unit wirelessly receiving the calculation data and a second display unit displaying the calculation data; And
A third wireless communication unit that wirelessly receives the calculation data and transmits control data generated by calculating the calculation data, a third display unit that displays the calculation data, a remote control unit that remotely controls the upper control unit, and And a control unit including a data storage unit for storing the image data and the operation data,
The central operation unit calculates the relative size of the hook based on the image data, based on the number of pixels occupied by the image of the hook compared to the total number of screen pixels,
The central calculation unit calculates an actual distance between the image sensor unit and the hook based on the image data, and the actual distance between the image sensor unit and the hook is a crane lift analysis system defined by the following equation. .
Figure 112020024528502-pat00033

Here, d is the distance between the image sensor unit and the hook,
Figure 112020024528502-pat00034
Is 1/2 of the angle of view of the image sensor unit, B is the actual area of the hook, a is the total number of screen pixels in the image data, and b is the number of pixels occupied by the hook in the image data.
제1항에 있어서, 상기 영상 센서부는 기계 학습 기반의 Fast R-CNN을 적용한 물체 인식 알고리즘을 이용하여 상기 후크 및 상기 인양물을 인식하는 것을 특징으로 하는 크레인의 인양물 분석 시스템.
The system of claim 1, wherein the image sensor unit recognizes the hook and the lifting object using an object recognition algorithm to which a machine learning-based Fast R-CNN is applied.
제1항에 있어서, 상기 영상 센서부는 30fps 이상의 속도로 상기 후크 및 상기 인양물을 인식하는 것을 특징으로 하는 크레인의 인양물 분석 시스템.
The lifting system of claim 1, wherein the image sensor unit recognizes the hook and the lifting object at a speed of 30 fps or more.
삭제delete 삭제delete 제1항에 있어서,
상기 중앙 연산부는 상기 영상 데이터를 바탕으로 상기 후크 주변의 영상을 확대한 확대 영상 데이터를 생성하고, 상기 확대 영상 데이터에서 상기 후크와 일정한 간격을 유지하는 물체를 인양물로 인식하며, 상기 영상 센서부와 상기 후크 사이의 실제 거리에 따른 상기 확대 영상 데이터 내의 이미지의 크기 변화를 이용하여 상기 인양물의 크기를 연산하는 것을 특징으로 하는 크레인의 인양물 분석 시스템.
According to claim 1,
The central operation unit generates enlarged image data obtained by enlarging an image around the hook based on the image data, recognizes an object maintaining a constant distance from the hook as the salvage object from the enlarged image data, and the image sensor unit Crane size analysis system, characterized in that for calculating the size of the lift by using the size change of the image in the enlarged image data according to the actual distance between the and the hook.
제6항에 있어서,
상기 중앙 연산부가 연산하는 상기 인양물의 크기는 아래의 수학식에 의해 정의되는 것을 특징으로 하는 크레인의 인양물 분석 시스템.
Figure 112018120133924-pat00019

여기서, B는 인양물의 실제 면적, d는 영상 센서부와 후크 사이의 거리,
Figure 112018120133924-pat00020
는 상기 영상 센서부의 화각의 1/2, a는 영상 데이터 내의 전체 화면 픽셀 수, b는 영상 데이터 내에서 인양물이 차지하는 픽셀 수를 나타냄.
The method of claim 6,
The lifting object analysis system of the crane, characterized in that the size of the lifting object calculated by the central operation unit is defined by the following equation.
Figure 112018120133924-pat00019

Here, B is the actual area of the lift, d is the distance between the image sensor unit and the hook,
Figure 112018120133924-pat00020
Is 1/2 of the angle of view of the image sensor unit, a is the total number of screen pixels in the image data, and b is the number of pixels occupied by the salvage in the image data.
제1항에 있어서,
상기 제1 표시부 내지 제3 표시부에 표시되는 정보는 시각 또는 청각에 의한 정보인 것을 특징으로 하는 크레인의 인양물 분석 시스템.
According to claim 1,
Crane information analysis system, characterized in that the information displayed on the first to third display portion is information by visual or hearing.
영상 센서부가 크레인의 후크 및 상기 후크에 인양된 인양물을 인식하여 영상 데이터를 생성하는 단계;
중앙 연산부가 상기 영상 데이터를 바탕으로 상기 후크 및 상기 인양물의 크기 및 위치에 관한 정보를 포함하는 연산 데이터를 생성하는 단계;
제1 무선 통신부가 상기 연산 데이터를 제2 무선 통신부 및 제3 무선 통신부로 전송하는 단계; 및
제1 표시부, 제2 표시부 및 제3 표시부가 상기 연산 데이터를 표시하는 단계를 포함하고,
상기 연산 데이터를 생성하는 단계는,
상기 영상 데이터를 바탕으로 전체 화면 픽셀 수 대비 상기 후크의 이미지가 차지하는 픽셀 수로 상기 후크의 상대적 크기를 연산하는 단계;
상기 후크의 상대적 크기와 실제 후크의 크기를 비교하여 상기 영상 센서부와 상기 후크 사이의 실제 거리를 연산하는 단계;
상기 영상 데이터를 바탕으로 상기 후크 주변의 영상을 확대한 확대 영상 데이터를 생성하는 단계;
상기 확대 영상 데이터에서 상기 후크와 일정한 간격을 유지하는 물체를 인양물로 인식하는 단계; 및
상기 영상 센서부와 상기 후크 사이의 실제 거리에 따른 상기 확대 영상 데이터 내의 이미지의 크기 변화를 이용하여 상기 인양물의 크기를 연산하는 단계를 포함하는 크레인의 인양물 분석 방법.
Generating an image data by recognizing the hook of the crane and the lifting object lifted on the hook;
Generating a calculation data including information on the size and position of the hook and the lifting object based on the image data by the central calculation unit;
Transmitting, by the first wireless communication unit, the calculation data to the second wireless communication unit and the third wireless communication unit; And
The first display unit, the second display unit and the third display unit includes the step of displaying the calculation data,
The step of generating the operation data,
Calculating a relative size of the hook based on the image data and the number of pixels occupied by the hook image compared to the total number of screen pixels;
Comparing the relative size of the hook and the actual size of the hook to calculate the actual distance between the image sensor unit and the hook;
Generating enlarged image data obtained by enlarging an image around the hook based on the image data;
Recognizing an object maintaining a certain distance from the hook as the salvage object from the enlarged image data; And
And calculating the size of the lifting object using a change in size of an image in the enlarged image data according to an actual distance between the image sensor unit and the hook.
제9항에 있어서, 상기 영상 센서부는 기계 학습 기반의 Fast R-CNN을 적용한 물체 인식 알고리즘을 이용하여 상기 후크 및 상기 인양물을 인식하는 것을 특징으로 하는 크레인의 인양물 분석 방법.
The method of claim 9, wherein the image sensor unit recognizes the hook and the lifting object using an object recognition algorithm to which a machine learning-based Fast R-CNN is applied.
제9항에 있어서, 상기 영상 센서부는 30fps 이상의 속도로 상기 후크 및 상기 인양물을 인식하는 것을 특징으로 하는 크레인의 인양물 분석 방법.
The method of claim 9, wherein the image sensor unit recognizes the hook and the lifting object at a speed of 30 fps or more.
삭제delete 제9항에 있어서, 상기 영상 센서부와 상기 후크 사이의 실제 거리를 연산하는 단계에서 연산하는 상기 영상 센서부와 상기 후크 사이의 실제 거리는 아래의 수학식에 의해 정의되는 것을 특징으로 하는 크레인의 인양물 분석 방법.
Figure 112020024528502-pat00021

여기서, d는 영상 센서부와 후크 사이의 거리,
Figure 112020024528502-pat00022
는 상기 영상 센서부의 화각의 1/2, B는 후크의 실제 면적, a는 영상 데이터 내의 전체 화면 픽셀 수, b는 영상 데이터 내에서 후크가 차지하는 픽셀 수를 나타냄.
The lifting distance of the crane according to claim 9, wherein the actual distance between the image sensor unit and the hook calculated in the step of calculating the actual distance between the image sensor unit and the hook is defined by the following equation. Water analysis method.
Figure 112020024528502-pat00021

Here, d is the distance between the image sensor unit and the hook,
Figure 112020024528502-pat00022
Is 1/2 of the angle of view of the image sensor unit, B is the actual area of the hook, a is the total number of screen pixels in the image data, and b is the number of pixels occupied by the hook in the image data.
제13항에 있어서, 상기 인양물의 크기를 연산하는 단계에서 연산하는 인양물의 크기는 아래의 수학식에 의해 정의되는 것을 특징으로 하는 크레인의 인양물 분석 방법.
Figure 112018120133924-pat00023

여기서, B는 인양물의 실제 면적, d는 영상 센서부와 후크 사이의 거리,
Figure 112018120133924-pat00024
는 상기 영상 센서부의 화각의 1/2, a는 영상 데이터 내의 전체 화면 픽셀 수, b는 영상 데이터 내에서 인양물이 차지하는 픽셀 수를 나타냄.













14. The method of claim 13, wherein the size of the lifting object calculated in the step of calculating the size of the lifting object is defined by the following equation.
Figure 112018120133924-pat00023

Here, B is the actual area of the lift, d is the distance between the image sensor unit and the hook,
Figure 112018120133924-pat00024
Is 1/2 of the angle of view of the image sensor unit, a is the total number of screen pixels in the image data, and b is the number of pixels occupied by the salvage in the image data.













KR1020180152209A 2018-11-30 2018-11-30 System and method for analyzing cargo of crane KR102135883B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180152209A KR102135883B1 (en) 2018-11-30 2018-11-30 System and method for analyzing cargo of crane

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180152209A KR102135883B1 (en) 2018-11-30 2018-11-30 System and method for analyzing cargo of crane

Publications (2)

Publication Number Publication Date
KR20200065595A KR20200065595A (en) 2020-06-09
KR102135883B1 true KR102135883B1 (en) 2020-07-20

Family

ID=71082890

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180152209A KR102135883B1 (en) 2018-11-30 2018-11-30 System and method for analyzing cargo of crane

Country Status (1)

Country Link
KR (1) KR102135883B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115520786B (en) * 2022-08-25 2024-02-27 江苏广坤铝业有限公司 Aluminum product discharging auxiliary transfer equipment and transfer control method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016199388A (en) * 2015-04-14 2016-12-01 Ihi運搬機械株式会社 Cargo transportation machine remote control system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100750347B1 (en) * 2005-12-20 2007-08-17 한국철도기술연구원 A Monitoring System for Subway Platform using Stereoscopic Video Camera
KR101117614B1 (en) * 2008-01-28 2012-03-08 순천대학교 산학협력단 transfer and history of iron manufactured goods using wireless communication and method for maintaining transfer and history of iron manufactured goods
KR20180111123A (en) 2017-03-31 2018-10-11 주식회사수산중공업 Crane

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016199388A (en) * 2015-04-14 2016-12-01 Ihi運搬機械株式会社 Cargo transportation machine remote control system

Also Published As

Publication number Publication date
KR20200065595A (en) 2020-06-09

Similar Documents

Publication Publication Date Title
US11216673B2 (en) Direct vehicle detection as 3D bounding boxes using neural network image processing
EP4056518A1 (en) Crane hook positioning method, apparatus and system, and engineereing machinery
US12020184B2 (en) Service detection and recommendation system
US20230410621A1 (en) Intrusion detection system, intrusion detection method, and computer-readable medium
JP6494331B2 (en) Robot control apparatus and robot control method
KR102416227B1 (en) Apparatus for real-time monitoring for construction object and monitoring method and and computer program for the same
US20190023180A1 (en) Industrial vehicle geo-feature system
CN104508708B (en) Road environment identifying device
WO2017171649A1 (en) Methods for providing task related information to a user, user assistance systems, and computer-readable media
CN111989915B (en) Methods, media, and systems for automatic visual inference of environment in an image
KR102135883B1 (en) System and method for analyzing cargo of crane
CN115752462A (en) Method, system, electronic equipment and medium for inspecting key inspection targets in building
CN112561859A (en) Monocular vision-based steel belt drilling and anchor net identification method and device for anchoring and protecting
CN114455490A (en) Tower crane safety control method and system
JP2023064093A (en) Traffic mark detection method and method of training traffic mark detection model
CN112711255A (en) Mobile robot obstacle avoidance method, control device and storage medium
JP2021076711A (en) Scrap image capturing system, scrap image capturing method, image capturing support device, and program
CN115893201A (en) Automatic tower crane driving method, device, equipment and storage medium
JP7149078B2 (en) Information presentation device and information presentation method
CN112824307A (en) Crane jib control method based on machine vision
JP2021060784A (en) Object detection device, system, method, and program
JP2020136703A (en) Imaging apparatus, imaging method, and imaging program
JP2015204011A (en) Lane recognition apparatus
US20230142455A1 (en) Data creation device, program creation device, object detection device, data creation method, and object detection method
JP7346283B2 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant