KR20240060263A - Draft Measurement System and Draft Measuring Method - Google Patents

Draft Measurement System and Draft Measuring Method Download PDF

Info

Publication number
KR20240060263A
KR20240060263A KR1020220141664A KR20220141664A KR20240060263A KR 20240060263 A KR20240060263 A KR 20240060263A KR 1020220141664 A KR1020220141664 A KR 1020220141664A KR 20220141664 A KR20220141664 A KR 20220141664A KR 20240060263 A KR20240060263 A KR 20240060263A
Authority
KR
South Korea
Prior art keywords
draft
image
image information
unit
information
Prior art date
Application number
KR1020220141664A
Other languages
Korean (ko)
Inventor
홍은재
민동기
심진우
Original Assignee
에이치디한국조선해양 주식회사
에이치디현대중공업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이치디한국조선해양 주식회사, 에이치디현대중공업 주식회사 filed Critical 에이치디한국조선해양 주식회사
Priority to KR1020220141664A priority Critical patent/KR20240060263A/en
Publication of KR20240060263A publication Critical patent/KR20240060263A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B39/00Equipment to decrease pitch, roll, or like unwanted vessel movements; Apparatus for indicating vessel attitude
    • B63B39/12Equipment to decrease pitch, roll, or like unwanted vessel movements; Apparatus for indicating vessel attitude for indicating draught or load
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • Ocean & Marine Engineering (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 본 발명은 무인비행체를 이용하여 흘수에 대한 이미지 정보를 획득하고, 이미지 정보를 처리하여 흘수 측정하는 흘수 측정 시스템 및 흘수 측정 방법에 대한 것으로서, 흘수 측정 시스템은 보정부와 인식부 및 연산부를 포함할 수 있고, 흘수 측정 방법은 정보 획득단계, 보정단계, 인식단계 및 계산단계를 포함할 수 있다.The present invention relates to a draft measurement system and a draft measurement method that acquire image information about the draft using an unmanned aerial vehicle, process the image information, and measure the draft. The draft measurement system includes a correction unit, a recognition unit, and a calculation unit. It may include, and the draft measurement method may include an information acquisition step, a correction step, a recognition step, and a calculation step.

Description

흘수 측정 시스템 및 흘수 측정 방법 {Draft Measurement System and Draft Measuring Method}Draft Measurement System and Draft Measuring Method}

본 발명은 무인비행체를 이용하여 흘수에 대한 이미지 정보를 획득하고, 이미지 정보를 처리하여 흘수 측정하는 흘수 측정 시스템 및 흘수 측정 방법에 대한 것이다.The present invention relates to a draft measurement system and method for obtaining image information about the draft using an unmanned aerial vehicle, processing the image information, and measuring the draft.

선박은 진수 단계에서 중사 시험(Draught Survey) 또는 경사 시험(Inclining Test)을 진행한다. 경사 시험은 건조된 선박의 무게중심과 선박의 무게인 경하중량(Light Weight)을 파악하기 위한 목적이고, 중사 시험은 화물을 무게인 재화중량(Dead Weight)을 파악하기 위한 목적의 시험이다.Ships undergo a draught survey or inclining test at the launch stage. The incline test is intended to determine the center of gravity of the built ship and the light weight, which is the weight of the ship, while the tilt test is intended to determine the dead weight, which is the weight of the cargo.

일반적으로, 중사 시험은 요구되는 선박의 여섯 군데의 위치에서 흘수 마크(draft marking)를 확인하고, 흘수선 계측용 게이지(Draught Reading Gauge, Hydrometer)로 계측하여 진행을 한다. 이러한 계측을 위하여 전마선에 여러 명의 감독관이 탑승하여 직접 이동하여야만 하였다. Generally, the petty sand test is conducted by checking draft markings at six locations on the required ship and measuring them with a draft reading gauge (hydrometer). In order to make these measurements, several supervisors had to board the electric wire and travel in person.

또한, 테스트 선박이 안벽에 이중으로 계류되어 있거나, 안벽 외 내항에서 시험이 수행되는 경우에는 중사 시험을 위하여 예인선을 이용하여 선박을 이동시켜야 하는 등의 문제가 있다.In addition, if the test vessel is double moored at the quay wall or the test is performed in the inner harbor outside the quay wall, there is a problem such as having to move the vessel using a tugboat for the quay test.

그러므로, 상기 언급한 문제점이 발생하지 않는 흘수 측정 시스템과 방법이 필요한 실정이다.Therefore, there is a need for a draft measurement system and method that does not cause the above-mentioned problems.

한국공개특허 제10-2019-0019336 호 (2019.02.27 공개)Korean Patent Publication No. 10-2019-0019336 (published on February 27, 2019)

본 발명은 위와 같은 문제를 해결하기 위한 것으로, 무인비행체를 이용하여 촬영한 이미지 정보로 흘수 측정할 수 있는 흘수 측정 시스템 또는 방법을 제공하는 것을 목적으로 한다.The present invention is intended to solve the above problems, and its purpose is to provide a draft measurement system or method that can measure draft using image information captured using an unmanned aerial vehicle.

본 발명은 위와 같은 목적을 달성하기 위하여 다음과 같이 형성된 흘수 측정 시스템 및 방법을 제공한다.In order to achieve the above object, the present invention provides a draft measurement system and method formed as follows.

본 발명의 일실시예에 따른 흘수 측정 시스템은, 선박의 흘수 측정을 위한 기준선과 흘수 마크를 촬영하여 획득한 이미지 정보의 왜곡된 정보를 이미지 변환 기법에 의하여 변환하고, 상기 이미지 정보에서 글자 및 기준선을 추출하기 위하여 형태(morphology) 이미지 가공을 수행하는 보정부와, 상기 보정부에서 이미지 가공이 수행된 상기 이미지 정보에서 광학 문자 인식을 통하여 상기 기준선과 상기 흘수 마크를 인식하는 인식부와, 상기 인식부에서 획득한 상기 기준선과 상기 흘수 마크로 흘수를 연산하는 연산부를 포함한다.The draft measurement system according to an embodiment of the present invention converts distorted information of image information obtained by photographing a baseline and a draft mark for measuring the draft of a ship using an image conversion technique, and converts letters and baselines from the image information. A correction unit that performs morphology image processing to extract a shape (morphology) image processing, a recognition unit that recognizes the reference line and the draft mark through optical character recognition in the image information on which image processing was performed in the correction unit, and the recognition unit It includes a calculation unit that calculates the draft using the reference line and the draft mark obtained from the unit.

또한, 상기 이미지 정보는 무인비행체에 의하여 획득되고, 상기 무인비행체는, 상기 이미지 정보를 촬영하는 촬영부와, 상기 이미지 정보를 촬영하는 지점과 실제 측정이 되어야하는 지점의 각도를 측정하기 위하여 레이더를 발사하는 측정부를 포함할 수 있다.In addition, the image information is acquired by an unmanned aerial vehicle, and the unmanned aerial vehicle includes a photographing unit that photographs the image information, and a radar to measure the angle between the point where the image information is photographed and the point where actual measurement is to be performed. It may include a measuring unit that fires.

본 발명의 일실시예에 따른 흘수 측정 방법은, 선박의 흘수 마크를 포함하는 이미지를 촬영하여 이미지 정보를 획득하는 정보 획득단계와, 상기 이미지 정보를 이미지 변환 기법을 이용하여 왜곡된 이미지를 보정하는 보정단계와, 보정된 상기 이미지 정보에서 흘수 마크 및 흘수 측량의 기준선을 광학 문자 인식(Optical Character Recognition, OCR)을 통하여 인식하는 인식단계 및 상기 흘수 마크 및 기준선으로 흘수를 연산하는 계산단계를 포함한다. The draft measurement method according to an embodiment of the present invention includes an information acquisition step of acquiring image information by taking an image including a ship's draft mark, and correcting a distorted image using the image information using an image conversion technique. It includes a correction step, a recognition step of recognizing the draft mark and the baseline of the draft survey from the corrected image information through optical character recognition (OCR), and a calculation step of calculating the draft using the draft mark and baseline. .

본 발명은 위와 같은 구조 및 방법을 통하여, 직접적으로 선박의 흘수를 수동 게이지로 측정하지 않고 흘수를 측정할 수 있고, 예인선이나 전마선을 동원하지 않고 측정가능한 이점을 제공한다. Through the above structure and method, the present invention provides the advantage of being able to measure the draft of a ship without directly measuring it with a manual gauge, and of being able to measure it without mobilizing a tugboat or electric wire.

도 1은 본 발명의 일실시예에 따른 흘수 측정 시스템의 개략도이다.
도 2는 본 발명의 일실시예에 따라 무인비행체가 선박의 이미지 정보 획득과 각도 측정하는 상태를 도시한다.
도 3은 선박에서 무인비행체가 촬영하는 흘수 마크 및 기준선을 도시한다.
도 4는 본 발명의 일실시예에 따라 보정된 이미지 정보로서, (a)는 원근 변환된 상태의 이미지 정보이고, (b)는 형태 이미지 가공이 수행된 상태의 이미지 정보를 도시한다.
도 5는 본 발명의 일실시예에 따른 흘수 측정 방법을 도시한 순서도이다.
도 6은 본 발명의 또다른 실시예에 따른 흘수 측정 방법을 도시한 순서도이다.
도 7은 제2 이미지 처리단계를 도시한 순서도이다.
1 is a schematic diagram of a draft measurement system according to an embodiment of the present invention.
Figure 2 shows a state in which an unmanned aerial vehicle acquires image information and measures an angle of a ship according to an embodiment of the present invention.
Figure 3 shows a draft mark and reference line taken by an unmanned aerial vehicle on a ship.
Figure 4 shows image information corrected according to an embodiment of the present invention. (a) shows image information in a perspective converted state, and (b) shows image information in a state in which form image processing has been performed.
Figure 5 is a flowchart showing a method for measuring draft according to an embodiment of the present invention.
Figure 6 is a flowchart showing a draft measurement method according to another embodiment of the present invention.
Figure 7 is a flowchart showing the second image processing step.

이하에서는 첨부된 도면을 참고로 하여, 본 발명의 구체적인 실시예에 대하여 설명하도록 한다. 다만, 본 발명의 사상은 제시되는 실시예에 제한되지 아니하고, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서 다른 구성요소를 추가, 변경 또는 삭제 등을 통하여, 퇴보적인 다른 발명이나 본 발명 사상의 범위 내에 포함되는 다른 실시예를 용이하게 제안할 수 있을 것이나, 이 또한 본원 발명 사상의 범위 내에 포함된다고 할 것이다.Hereinafter, specific embodiments of the present invention will be described with reference to the attached drawings. However, the spirit of the present invention is not limited to the presented embodiments, and those skilled in the art who understand the spirit of the present invention may add, change, or delete other components within the scope of the same spirit, or create other degenerative inventions or this invention. Other embodiments that are included within the scope of the inventive idea can be easily proposed, but it will also be said that this is included within the scope of the inventive idea of the present application.

또한, 본 발명을 설명함에 있어, '~ 부' 또는 '유닛'은 다양한 방식, 예를 들면 프로세서, 프로세서에 의해 수행되는 프로그램 명령들, 소프트웨어 모듈, 마이크로 코드, 컴퓨터 프로그램 생성물, 로직 회로, 애플리케이션 전용 집적 회로, 펌웨어 등에 의해 구현될 수 있다.In addition, in describing the present invention, '~ part' or 'unit' may be used in various ways, for example, a processor, program instructions executed by the processor, software module, microcode, computer program product, logic circuit, application-specific It can be implemented by an integrated circuit, firmware, etc.

본 출원의 실시예에 개시된 방법의 내용은 하드웨어 프로세서로 직접 구현될 수 있으며, 또는 프로세서 중 하드웨어 및 소프트웨어 모듈의 조합으로 구현되어 수행 완성될 수 있다. 소프트웨어 모듈은 랜덤 액세스 메모리, 플래시 메모리, 판독 전용 메모리, 프로그래머블 판독 전용 메모리 또는 전기적 소거 가능 프로그래머블 메모리, 레지스터 등과 같은 종래의 저장 매체에 저장될 수 있다. 상기 저장 매체는 메모리에 위치하며, 프로세서는 메모리에 저장된 정보를 판독하여, 그 하드웨어와 결합하여 상술한 방법의 내용을 완성한다. 중복되는 것을 방지하기 위해, 여기서는 상세한 설명을 생략한다.The contents of the method disclosed in the embodiments of the present application may be directly implemented with a hardware processor, or may be implemented and completed through a combination of hardware and software modules among the processors. Software modules may be stored in conventional storage media such as random access memory, flash memory, read only memory, programmable read only memory, or electrically erasable programmable memory, registers, etc. The storage medium is located in a memory, and the processor reads the information stored in the memory and combines it with the hardware to complete the content of the method described above. To prevent duplication, detailed description is omitted here.

구현 과정에서, 상술한 방법의 각 내용은 프로세서 중 하드웨어의 논리 집적 회로 또는 소프트웨어 형태의 인스트럭션에 의해 완성될 수 있다. 본 출원의 실시예에 개시된 방법의 내용은 하드웨어 프로세서로 직접 구현될 수 있으며, 또는 프로세서 중 하드웨어 및 소프트웨어 모듈의 조합으로 구현되어 수행 완성될 수 있다. 소프트웨어 모듈은 랜덤 액세스 메모리, 플래시 메모리, 판독 전용 메모리, 프로그래머블 판독 전용 메모리 또는 전기적 소거 가능 프로그래머블 메모리, 레지스터 등과 같은 종래의 저장 매체에 저장될 수 있다. 상기 저장 매체는 메모리에 위치하며, 프로세서는 메모리에 저장된 정보를 판독하여, 그 하드웨어와 결합하여 상술한 방법의 내용을 완성한다.In the implementation process, each content of the above-described method can be completed by a logical integrated circuit of hardware among processors or instructions in the form of software. The contents of the method disclosed in the embodiments of the present application may be directly implemented with a hardware processor, or may be implemented and completed through a combination of hardware and software modules among the processors. Software modules may be stored in conventional storage media such as random access memory, flash memory, read only memory, programmable read only memory, or electrically erasable programmable memory, registers, etc. The storage medium is located in a memory, and the processor reads the information stored in the memory and combines it with the hardware to complete the content of the method described above.

즉, 본 분야에서 통상의 지식을 가진 자들은, 본 명세서에서 개시한 실시예에서 설명하는 각 예시적인 유닛 및 알고리즘 단계를 결합하여, 전자 하드웨어 또는 컴퓨터 소프트웨어와 전자 하드웨어의 결합으로 실현할 수 있음을 알 수 있다. 이러한 기능을 하드웨어 방식으로 수행할 것인지 아니면 소프트웨어 방식으로 수행할 것인지는, 기술방안의 특정 응용과 설계 제약 조건에 의해 결정된다. 통상의 지식을 가진 자들은 특정된 응용 각각에 대해 서로 다른 방법을 사용하여 설명한 기능을 실현할 수 있지만, 이러한 실현은 본 출원의 범위를 벗어난 것으로 간주되어서는 안된다.That is, those skilled in the art will know that each exemplary unit and algorithm step described in the embodiments disclosed herein can be combined and realized by electronic hardware or a combination of computer software and electronic hardware. You can. Whether these functions are performed by hardware or software is determined by the specific application and design constraints of the technical solution. Those skilled in the art may implement the described functionality using different methods for each particular application, but such implementation should not be considered beyond the scope of the present application.

본 출원에서 제공하는 몇 개의 실시예에서, 이해해야 할 것은 개시된 장치와 방법은 기타 방식을 통해 실현될 수 있다. 예를 들어, 위에서 설명한 장치 실시예는 단지 예시적인 것으로서, 예를 들어, 상기 유닛의 구분은 단지 일종 논리적 기능 구분으로서, 실제 실현 시 기타의 구분 방식이 존재할 수 있으며, 예를 들어, 복수의 유닛 또는 어셈블리는 다른 하나의 시스템에 결합되거나 집적될 수 있고, 또는 일부 특징은 무시하거나 수행하지 않을 수 있다. 다른 한편, 표시되거나 논의되는 서로 사이의 커플링 또는 직접적인 커플링 또는 통신 연결은 일부 인터페이스, 장치 또는 유닛을 통한 간접적인 커플링 또는 통신 연결일 수 있고, 전기적, 기계적 또는 기타 형태일 수 있다.In some embodiments provided in this application, it should be understood that the disclosed devices and methods may be implemented in other ways. For example, the device embodiments described above are merely illustrative. For example, the division of the units is only a kind of logical function division, and other division methods may exist in actual implementation, for example, a plurality of units. Alternatively, the assembly may be combined or integrated into another system, or some features may be ignored or not performed. On the other hand, the coupling or direct coupling or communication connection between each other shown or discussed may be an indirect coupling or communication connection through some interface, device or unit and may be electrical, mechanical or other form.

위에서 분리된 부품으로서 설명된 유닛은 물리적으로 분리된 것일 수 있고, 유닛으로서 표시되는 부품은 물리적 유닛이거나 아닐 수 있는 바, 즉 한 곳에 위치하거나 복수의 네트워크 유닛에 분포될 수도 있다. 실제 수요에 따라 그 중 일부 또는 모든 유닛을 선택하여 본 실시예의 방안의 목적을 실현할 수 있다.Units described above as separate parts may be physically separated, and parts displayed as units may or may not be physical units, that is, they may be located in one place or distributed across a plurality of network units. Some or all of the units may be selected according to actual demand to realize the purpose of the scheme of this embodiment.

즉, 본 출원의 각 실시예에서의 각 기능 유닛은 하나의 처리 유닛에 집적될 수 있고, 각 유닛이 단독으로 존재할 수도 있으며, 둘 또는 둘 이상의 유닛이 하나의 유닛에 집적될 수도 있다.That is, each functional unit in each embodiment of the present application may be integrated into one processing unit, each unit may exist alone, or two or more than two units may be integrated into one unit.

상기 기능이 만약 소프트웨어 기능 유닛의 형태로 구현되어 독립적인 제품으로서 판매되거나 사용될 경우, 하나의 컴퓨터 판독 가능 저장매체에 저장될 수 있다. 이러한 이해에 기반하여, 본 출원의 기술방안에서 본질적으로 또는 선행기술에 대해 기여한 부분 또는 상기 기술방안의 일부분은 소프트웨어 제품의 형태로 구현될 수 있고, 상기 컴퓨터 소프트웨어 제품은 하나의 저장매체에 저장되며, 약간의 인스트럭션을 포함하여 하나의 컴퓨터 장치(개인 컴퓨터, 서버 또는 네트워크 기기 등일 수 있음)로 하여금 본 출원의 각 실시예에서 설명하는 방법의 전부 또는 일부 단계를 수행하도록 한다. 상술한 저장매체는 USB 메모리, 모바일 하드디스크, 읽기 전용 메모리(Read-Only Memory, ROM), 랜덤 액세스 메모리(Random Access Memory, RAM), 자기 디스크 또는 시디롬 등과 같은 프로그램 코드를 저장할 수 있는 다양한 매체를 포함한다.If the above function is implemented in the form of a software function unit and sold or used as an independent product, it may be stored in a single computer-readable storage medium. Based on this understanding, the part of the technical solution of this application that is essentially or a contribution to the prior art or a part of the technical solution may be implemented in the form of a software product, and the computer software product is stored in a storage medium. , including some instructions to cause one computer device (which may be a personal computer, server, or network device, etc.) to perform all or part of the steps of the method described in each embodiment of the present application. The above-described storage media includes various media that can store program code, such as USB memory, mobile hard disk, read-only memory (ROM), random access memory (RAM), magnetic disk, or CD-ROM. Includes.

도 1은 본 발명의 일실시예에 따른 흘수 측정 시스템을 도시한다.1 shows a draft measurement system according to an embodiment of the present invention.

도 2는 무인비행체가 선박의 흘수를 측정하는 상태를 도시한다. 도 3은 무인비행체가 측정하는 선박 측면을 개략적으로 도시한다. 도 4는 이미지 정보가 가공된 상태를 도시한 것으로서, (a)는 원근 변환된 상태의 이미지 정보이고, (b)는 인식되기 쉽도록 가공된 상태의 이미지 정보이다.Figure 2 shows a state in which an unmanned aerial vehicle measures the draft of a ship. Figure 3 schematically shows the side of the ship measured by the unmanned aerial vehicle. Figure 4 shows a state in which image information has been processed, where (a) is image information in a perspective-converted state, and (b) is image information in a state processed for easy recognition.

본 발명의 일실시예에 따른 흘수 측정 시스템은, 저장부(21), 보정부(22), 인식부(23) 및 연산부(24)가 포함된다. The draft measurement system according to an embodiment of the present invention includes a storage unit 21, a correction unit 22, a recognition unit 23, and a calculation unit 24.

그리고 흘수 측정 시스템은 상기와 같은 구성을 포함하는 서버(2), 무인비행체(1) 및 디스플레이 장치(3)를 포함할 수 있다. And the draft measurement system may include a server (2), an unmanned aerial vehicle (1), and a display device (3) including the above configuration.

흘수(吃水) 란 선박이 물 위에 떠 있을 때에 선체가 가라앉는 깊이 즉, 선체의 맨 밑에서 수면까지의 수직 거리를 의미하며, 끽수(喫水)라고 표현되기도 한다.Draft refers to the depth to which the ship's hull sinks when it is floating on the water, that is, the vertical distance from the bottom of the hull to the water, and is also expressed as water.

본 발명은 큰 배와 육지 또는 배와 배 사이의 연락을 맡아 하는 배인 전마선에 인력의 탑승 없이 정확하게 흘수를 측정하는 것을 목적으로 한다.The purpose of the present invention is to accurately measure the draft without manpower aboard a utility ship, which is a ship that acts as a liaison between a large ship and the land or between a ship and a ship.

흘수 측정 시스템은 무인비행체(1), 무인비행체로부터 전달받은 이미지 정보를 처리하는 서버(2) 및 서버(2)의 처리 내용을 표시하는 디스플레이 장치(3)를 포함할 수 있다.The draft measurement system may include an unmanned aerial vehicle (1), a server (2) that processes image information received from the unmanned aerial vehicle, and a display device (3) that displays processing contents of the server (2).

무인비행체(1)는 이미지 정보를 획득하고, 각도 측정을 한다. The unmanned aerial vehicle (1) acquires image information and measures angles.

무인비행체(1)는 일반적으로 드론을 의미할 수 있으며, 흘수 측정 시스템에 있어서 인력 대신 선박에 접근하여 측정 또는 촬영하는 역할을 수행한다.The unmanned aerial vehicle (1) may generally refer to a drone, and in a draft measurement system, it approaches a ship and performs measurements or photographs instead of manpower.

무인비행체(1)에는 이미지 정보를 촬영하는 촬영부(11)와, 인력에 의한 측정시 측정되는 지점과 실제 무인비행체(1)의 측정 지점간 각도를 측정하기 위하여 측정부(12)가 구비된다.The unmanned aerial vehicle (1) is equipped with a photographing unit (11) to capture image information, and a measuring unit (12) to measure the angle between the point measured during human measurement and the actual measurement point of the unmanned aerial vehicle (1). .

촬영부(11)는 일반적인 모든 카메라를 포함하고, 무인비행체(1)에 일체로 형성되어 있지 않고 추가적으로 부착되거나 부가되어 있을 수도 있다. The photographing unit 11 includes all general cameras, and may not be integrally formed with the unmanned air vehicle 1 but may be additionally attached or added.

무인비행체(1)가 선박(100)의 흘수 측정 위치로 이동되고, 흘수 측정 위치에서 이미지 정보를 획득할 수 있다. 선박의 흘수 마크(110)와 시험 기준선(120)의 이미지를 촬영하여 이미지 정보를 획득할 수 있다. 그리고, 복수의 촬영 지점에서 각각 복수의 상기 이미지 정보를 획득한다. 흘수 측정을 위한 선박(100)의 촬영 위치는 일반적으로 복수의 지점이다. 그리고 각각의 지점에서 복수의 이미지 정보를 획득할 수도 있다.The unmanned aerial vehicle 1 is moved to the draft measurement position of the ship 100, and image information can be acquired at the draft measurement position. Image information can be obtained by taking images of the ship's draft mark 110 and the test baseline 120. Then, a plurality of the image information is acquired from a plurality of shooting points. The photographing positions of the ship 100 for measuring draft are generally multiple points. Additionally, multiple image information can be obtained at each point.

무인비행체(1)가 선박의 흘수를 측정하는 지점은 실제로 인력에 의하여 측정되는 경우와 그 위치가 상이할 수 있다. 일반적으로 선박(100)의 외부 표면에서 수면과 가까운 지점에서 기준선(120)과 흘수 마크(110)를 측정하므로, 큰 오차 없이 측정하게 된다. 그러나, 무인비행체(1)는 선박(100)과의 거리 및 수면과의 거리 모두 크게 차이가 있을 수 있다.The point at which the unmanned aerial vehicle (1) measures the ship's draft may be different from when it is actually measured by manpower. In general, the baseline 120 and the draft mark 110 are measured at a point close to the water surface on the outer surface of the ship 100, so they are measured without a large error. However, the distance between the unmanned aerial vehicle 1 and the ship 100 and the distance from the water may be significantly different.

측정부(12)는 촬영부(11)에서 획득한 이미지 정보를 보정하기 위한 각도 정보를 측정할 수 있다. 이러한 측정부(12)는 레이더를 통하여 측정할 수도 있다. 그러나, 레이더에 한정되지 않고, 상기 각도(θ)를 얻을 수 있는 모든 측정 수단을 포함할 수 있다.The measuring unit 12 can measure angle information for correcting image information acquired by the photographing unit 11. This measuring unit 12 can also measure through radar. However, it is not limited to radar, and may include any measuring means capable of obtaining the angle θ.

일례로서, 상기 이미지 정보를 촬영하는 지점과 실제 측정이 되어야하는 지점의 각도(θ)를 측정하기 위하여 레이더를 조사할 수 있다.As an example, radar can be used to measure the angle (θ) between the point where the image information is captured and the point where actual measurement is to be performed.

일례로서, 측정부(12)는 촬영 지점에서 수면과 평행한 제1 방향과 상기 수면과 수직한 제2 방향의 길이를 각각 측정하여 각도를 도출할 수 있다. 즉, 제1 방향의 상기 선박까지 길이인 제1 길이(L1)와 상기 수면과 수직한 제2 방향으로의 상기 수면까지의 길이인 제2 길이(L2)를 측정할 수 있다. 이를 통하여 상기 촬영 지점을 포함하는 평면과 상기 기준선(120)이 수직하게 위치되는 한 점과 상기 촬영 지점을 잇는 선이 제1 방향 또는 제2 방향으로 이루는 각도(θ)를 측정할 수 있다. As an example, the measuring unit 12 may derive the angle by measuring the length of a first direction parallel to the water surface and a second direction perpendicular to the water surface at the photographing point. That is, the first length L1, which is the length to the ship in the first direction, and the second length L2, which is the length to the water surface in the second direction perpendicular to the water surface, can be measured. Through this, it is possible to measure the angle θ formed by a line connecting the plane containing the photographing point and the reference line 120 perpendicular to the photographing point in the first or second direction.

무인비행체(1)는 레코더부(13), 제어부(14), 정보수신부(15)와 정보송신부(16)를 더 포함할 수 있다.The unmanned aerial vehicle 1 may further include a recorder unit 13, a control unit 14, an information reception unit 15, and an information transmission unit 16.

레코더부(13)는 촬영부(11)에서 획득한 이미지 정보를 저장할 수 있다. 또한, 이미지 정보 이외에 각도 측정 정보도 함께 저장될 수 있다. 그리고, 무인비행체(1)의 내부가 아닌 외부에 구비되어 있을 수 있다.The recorder unit 13 can store image information acquired by the photographing unit 11. Additionally, in addition to image information, angle measurement information may also be stored. Also, it may be provided outside the unmanned air vehicle 1 rather than inside it.

제어부(14)는 무인비행체(1)의 비행상태를 제어할 수 있다. 또한, 촬영부(11)와 측정부(12)의 동작을 제어할 수도 있다. 상기와 같은 제어 동작은 사전에 기 저장되어 있을 수 있으며, 외부 서버(2)를 통하여 전달받아 제어될 수도 있다.The control unit 14 can control the flight state of the unmanned aerial vehicle (1). Additionally, the operations of the imaging unit 11 and the measuring unit 12 can be controlled. The above control operations may be stored in advance, and may be transmitted and controlled through the external server 2.

무인비행체(1)는 정보수신부(15)와 정보송신부(16)를 구비하고 있을 수 있다. 정보송신부(16)는 무인비행체(1)로부터 획득한 정보를 서버(2)로 송신할 수 있다. 그리고 정보수신부(15)는 무인비행체(1)에 필요한 정보를 외부로 수신할 수 있다.The unmanned aerial vehicle 1 may be equipped with an information reception unit 15 and an information transmission unit 16. The information transmission unit 16 can transmit information obtained from the unmanned air vehicle 1 to the server 2. And the information receiving unit 15 can receive information necessary for the unmanned air vehicle 1 from the outside.

서버(2)에는 저장부(21), 보정부(22), 인식부(23), 연산부(24) 및 서버송수신부(25)가 형성될 수 있다.The server 2 may be formed with a storage unit 21, a correction unit 22, a recognition unit 23, a calculation unit 24, and a server transmission/reception unit 25.

저장부(21)는 상기 무인비행체(1)가 촬영한 이미지 정보와 각도 측정 정보를 저장할 수 있다. 저장부(21)는 그 외에 무인비행체(1)가 전송한 모든 정보를 저장할 수도 있다.The storage unit 21 may store image information and angle measurement information captured by the unmanned aerial vehicle 1. The storage unit 21 may also store all information transmitted by the unmanned aerial vehicle 1.

보정부(22)는 상기 이미지 정보를 이미지 변환 기법을 이용하여 왜곡된 이미지를 보정할 수 있다. The correction unit 22 may correct a distorted image using the image information using an image conversion technique.

보정부(22)는 무인비행체(1)로부터 직접 또는 저장부(21)로부터 데이터를 전달받아 이미지 정보에서 흘수를 정확히 측정하기 위한 전처리 단계를 수행할 수 있다. The correction unit 22 may receive data directly from the unmanned air vehicle 1 or from the storage unit 21 and perform a preprocessing step to accurately measure the draft from the image information.

무인비행체(1)에서 측정되는 이미지 정보는 흘수 마크(110)보다 높은 곳에서 아래를 향하여 측정되고, 따라서 이미지 정보로 바로 흘수 마크(110)와 기준선(120)을 인식하여 연산하는 경우 왜곡된 이미지 정보로 인하여 흘수 값의 정확한 측정이 어려울 수 있다. 그러므로, 정확한 측정을 위하여, 보정부(22)는 이미지 변환 기법을 통하여 왜곡된 부분을 원래 상태로 변환하는 보정을 수행할 수 있다.The image information measured from the unmanned aerial vehicle (1) is measured from a position higher than the draft mark (110) downward, and therefore, if the draft mark (110) and the reference line (120) are recognized and calculated directly using the image information, a distorted image is generated. Information may make it difficult to accurately measure draft values. Therefore, for accurate measurement, the correction unit 22 can perform correction to convert the distorted part to its original state through an image conversion technique.

각도 측정에 따라 보정된 흘수의 값은 실제 흘수 측정에 의한 측정 값 또는 이상적인 측정 값과 차이가 있을 수도 있다. 일반적으로 이 수치는 무시할 수 있다고 볼 수도나, 정확한 보정을 위하여 선박의 전체적인 형태에 대한 모습을 서버(2)의 저장부(21)에 기 저장하여 선박의 형태에 의한 측정 각도의 오차 등을 보완한 후 상기 이미지 정보를 보정할 수도 있다.The value of draft corrected according to angle measurement may differ from the measured value by actual draft measurement or the ideal measured value. In general, this value can be considered negligible, but for accurate correction, the overall shape of the ship is stored in the storage unit 21 of the server 2 to compensate for errors in the measurement angle due to the shape of the ship. After that, the image information can be corrected.

일례로, 이미지 변환 기법 중 하나인 원근 변환(Perspective Transform)에 따른 영상 처리 방법을 이용하여 이미지를 변환할 수 있다. 원근 변환이란 원근감을 표현하기 위한 변환으로서 직선의 성질만 유지하게 되는 변환을 나타낸다. 즉, 왜곡된 이미지를 측정할 때, 상기 각도를 측정하여 획득하고, 각도 값을 원근 변환을 위한 변환 행렬에 대입하여 이미지의 모양을 왜곡되지 않은 상태로 변환하는 보완을 수행할 수 있다. 이러한 변환을 통하여 도 4 (a)와 같이, 흘수 마크(110)를 정면에서 촬영한 것과 같은 이미지로 변환될 수 있다.For example, an image can be converted using an image processing method based on perspective transform, which is one of the image conversion techniques. Perspective transformation is a transformation to express perspective and refers to a transformation that maintains only the properties of straight lines. That is, when measuring a distorted image, the angle can be measured and obtained, and the angle value can be substituted into a transformation matrix for perspective transformation to perform correction to transform the shape of the image into an undistorted state. Through this conversion, the draft mark 110 can be converted into an image as if photographed from the front, as shown in Figure 4 (a).

또한, 보정부(22)는 이미지에서 흘수에 대한 정보를 쉽게 얻어내기 위하여 이미지를 가공할 수 있다.Additionally, the correction unit 22 may process the image to easily obtain information about the draft from the image.

일례로, 이미지 정보에서 글자 및 기준선(120)을 추출하기 위하여 상기 이미지 정보의 문자 및 기준선(120)을 명확하게 변환하는 형태(morphology) 이미지 가공을 수행할 수 있다.For example, in order to extract letters and reference lines 120 from image information, morphology image processing may be performed to clearly convert the letters and reference lines 120 of the image information.

이미지 정보를 흑백 변환에 따라 흑백 이미지로 변환하고, 흑백 이미지에서 내부에 존재하는 영역의 경계 이미지를 추출하는 형태적 구배(Morph Gradient)를 수행할 수 있다. 이는 이미지 내에서 픽셀 값이 해당 픽셀의 가까운 이웃 대비 강도를 나타내는 이미지로 변환하는 것이다. 그리고 상기 경계 이미지에 대하여 일정 영역별로 임계값 검출(Adaptive Threshold) 변환과 상기 경계 이미지에 있어서 상기 경계 이미지의 불연속적인 점 또는 선이 존재하는 경우, 상기 점 또는 선을 이어주는 변환(Morph Close)을 수행한다. 그 이후 특정한 조건을 만족하는 불필요한 선을 제거 변환(Long Line Remove)을 수행하는 가공을 수행할 수 있다. Image information can be converted to a black-and-white image according to black-and-white conversion, and morphological gradient (Morph Gradient) can be performed to extract the boundary image of the area existing inside the black-and-white image. This converts the pixel value within the image into an image that represents the intensity of that pixel compared to its nearest neighbors. And, for the boundary image, a threshold detection (Adaptive Threshold) transformation is performed for each certain area, and if there is a discontinuous point or line of the border image in the border image, a transformation (Morph Close) is performed to connect the point or line. do. After that, processing can be performed to remove unnecessary lines that meet specific conditions (Long Line Remove).

보정부(22)가 상기와 같은 변환과 가공을 수행하여 이미지 정보에서 정확한 흘수 마크(110)와 기준선(120)이 인식되고, 불필요한 노이즈가 인식되는 것을 방지할 수 있다.The correction unit 22 performs the above conversion and processing to recognize the accurate draft mark 110 and reference line 120 in the image information and prevent unnecessary noise from being recognized.

그러나 상기와 같은 이미지 변환 및 가공에 한정되지 않고, 하기 인식부(23)를 통하여 이미지 정보에서 문자를 인식하도록 제공하는 모든 변환 및 가공을 수행할 수 있다.However, it is not limited to image conversion and processing as described above, and all conversion and processing provided to recognize characters from image information can be performed through the recognition unit 23 below.

인식부(23)는 상기 이미지 가공이 수행된 상태의 이미지 정보에서 흘수 측정을 위한 정보를 인식할 수 있다.The recognition unit 23 may recognize information for measuring draft from image information in a state in which the image processing has been performed.

일례로, 광학 문자 인식(Optical Character Recognition, OCR)을 통하여 흘수 마크(110) 및 흘수 측량의 기준선(120)을 인식할 수 있다. 그러므로, 이미지 정보에 포함된 문자를 획득하기 위하여, 디지털 문자 인식으로 이미지 스캔을 진행하고, 컴퓨터 등에 의하여 처리될 수 있는 형식으로 변환될 수 있다. 이때, 흘수 마크(110)인 문자 이외에 일직선에 가까운 형태의 선인 기준선(120)도 함께 획득될 수 있다.For example, the draft mark 110 and the baseline 120 of the draft survey can be recognized through optical character recognition (OCR). Therefore, in order to obtain characters included in image information, images can be scanned using digital character recognition and converted into a format that can be processed by a computer, etc. At this time, in addition to the letters representing the draft mark 110, a reference line 120, which is a line close to a straight line, can also be obtained.

그리고, 복수의 지점에서 복수의 이미지를 획득하였다면, 인식된 수를 비교하여 인식이 잘못되었거나 촬영 또는 변환이 잘못되어, 정상적인 정보로 볼 수 없는 정보를 제거할 수 있다. Also, if multiple images are acquired from multiple points, the recognized numbers can be compared to remove information that cannot be viewed as normal information due to incorrect recognition or incorrect capturing or conversion.

예를 들어, 선박의 여섯 지점에서 각 지점마다 다섯번씩 촬영한 이미지 정보가 존재하고, 선박의 첫번째 지점에서 촬영된 다섯개의 이미지 정보에서 인식된 흘수 마크(110) 값이 다른 이미지에서 인식된 값과 크게 다른 값이 있는지 비교하고, 있다면 이를 제거하고 다른 이미지에서 인식된 값만을 도출해서 연산부(24)에 제공할 수 있다. 이러한 비교 및 제거는 모든 지점마다 각각 수행될 수 있다.For example, there is image information taken five times for each point at six points on the ship, and the draft mark (110) value recognized in the five image information taken at the first point of the ship is different from the value recognized in other images. It is possible to compare whether there are significantly different values, remove them if there are any, and derive only the values recognized from other images and provide them to the calculation unit 24. This comparison and removal can be performed separately for every point.

연산부(24)는 상기 인식부(23)에서 획득한 상기 기준선(120)과 상기 흘수 마크(110)로 연산할 수 있다. 연산부(24)는 연산을 진행하여 흘수 값을 결과로서 도출한다. 그리고, 상기 이미지 정보를 여러 개 획득하였으므로, 상기 이미지 정보를 통한 흘수 값은 여러 개 획득할 수 있고, 이에 대한 평균 값을 흘수 값으로 도출할 수 있다. The calculation unit 24 may calculate the reference line 120 and the draft mark 110 obtained from the recognition unit 23. The calculation unit 24 performs calculations and derives the draft value as a result. And, since several pieces of the image information have been acquired, several draft values can be obtained through the image information, and the average value for these can be derived as the draft value.

예를 들면, 선박의 여섯 지점에서 각 지점마다 두번씩 촬영한 이미지 정보가 있다면, 여섯 지점의 첫번째 이미지 정보로 제1 흘수 값이 연산되고, 여섯 지점의 두번째 이미지 정보로 제2 흘수 값이 연산되면, 두개의 흘수 값의 평균을 구하는 것일 수 있다. 그러나 선박의 측정 지점과 촬영 횟수는 상기 언급한 수에 한정되지 않는다. For example, if there is image information taken twice for each point at six points of the ship, the first draft value is calculated using the first image information of the six points, and the second draft value is calculated using the second image information of the six points. , it may be to obtain the average of the two draft values. However, the number of measurement points and shots on board the ship is not limited to the above-mentioned numbers.

서버송수신부(25)는 서버(2)로 무인비행체(1) 등에서 획득한 정보를 수신하고, 서버(2)에 의한 연산된 값을 디스플레이 장치(3)에 송신할 수 있다. 서버(2)는 단지 무인비행체(1)와 디스플레이 장치(3) 이외에 다른 서버(2) 등에 연결될 수 있고, 정보를 송수신할 수 있다.The server transceiver 25 may receive information obtained from the unmanned aerial vehicle 1, etc., to the server 2, and transmit the calculated value by the server 2 to the display device 3. The server 2 can be connected to other servers 2 in addition to the unmanned aerial vehicle 1 and the display device 3, and can transmit and receive information.

디스플레이 장치(3)는 서버(2)에서 도출된 결과를 표시한다. 또는 무인비행체(1)에서 획득한 정보를 표시할 수도 있다.The display device 3 displays the results derived from the server 2. Alternatively, information obtained from the unmanned aerial vehicle (1) may be displayed.

이하, 흘수 측정 방법에 있어서, 상기 언급한 흘수 측정방법에서 기재한 내용과 동일한 명칭 및 구성, 효과 등을 갖는 경우, 상기의 기재를 인용하도록 한다. 또한, 도 1 내지 도 4에만 나타난 구성의 도번을 인용하도록 한다.Hereinafter, in the case of the draft measurement method, if it has the same name, composition, effect, etc. as the contents described in the above-mentioned draft measurement method, the above description will be cited. In addition, the drawing numbers of the configurations shown only in FIGS. 1 to 4 will be cited.

도 5는 본 발명의 일 실시예에 따른 흘수 측정 방법에 대한 순서도를 도시한다. 도 6은 본 발명의 다른 실시예에 따른 흘수 측정 방법에 대한 순서도를 도시한다. 도 7은 제2 이미지 처리 단계에 대한 순서도를 도시한다.Figure 5 shows a flow chart for a draft measurement method according to an embodiment of the present invention. Figure 6 shows a flowchart of a draft measurement method according to another embodiment of the present invention. Figure 7 shows a flow chart for the second image processing step.

본 발명의 일 실시예에 따른 흘수 측정 방법은, 정보 획득단계(S100), 보정단계(S200), 인식단계(S300), 계산단계(S500)로 구성될 수 있다.The draft measurement method according to an embodiment of the present invention may be comprised of an information acquisition step (S100), a correction step (S200), a recognition step (S300), and a calculation step (S500).

정보 획득단계(S100)는, 무인비행체(1)가 선박의 흘수 마크(110)를 포함하는 이미지를 촬영하여 이미지 정보를 획득할 수 있다. In the information acquisition step (S100), the unmanned aerial vehicle 1 may acquire image information by photographing an image including the ship's draft mark 110.

또한, 선박의 흘수 마크(110)와 기준선(120) 등의 흘수 측정을 위하여 필요한 정보를 이미지 정보로서 획득하는 이미지 촬영단계(S110)와 상기 이미지 정보를 획득하는 위치의 각도를 측정하는 각도 측정단계(S120)를 포함할 수 있다.In addition, an image capturing step (S110) of acquiring the information necessary for measuring the draft, such as the ship's draft mark 110 and the reference line 120, as image information, and an angle measurement step of measuring the angle of the position at which the image information is acquired. (S120) may be included.

일례로, 정보 획득단계(S100)는 무인비행체(1)에 의하여 수행될 수 있다. 상기 무인비행체(1)는 촬영부(11)를 구비하고, 복수의 촬영 지점에서 각각 복수의 상기 이미지 정보를 획득할 수 있다. 또한, 상기 이미지 정보의 촬영과 동시 또는 순차적으로 상기 무인비행체(1)의 측정부(12)를 통하여 상기 선박의 기준선(120)의 한 지점과 상기 무인비행체(1)가 상기 이미지 정보를 획득하는 위치의 각도(θ)를 측정할 수 있다.For example, the information acquisition step (S100) may be performed by the unmanned aerial vehicle (1). The unmanned aerial vehicle 1 is provided with a photographing unit 11 and can acquire a plurality of image information from a plurality of photographing points. In addition, simultaneously or sequentially with the shooting of the image information, the unmanned air vehicle 1 acquires the image information at a point on the baseline 120 of the ship through the measurement unit 12 of the unmanned air vehicle 1. The angle of position (θ) can be measured.

보정단계(S200)는, 보정부(22)에 의하여 상기 이미지 정보를 이미지 변환 기법을 이용하여 왜곡된 이미지를 보정하는 단계일 수 있다.The correction step (S200) may be a step in which the correction unit 22 corrects a distorted image using the image information using an image conversion technique.

보정단계(S200)는, 상기 이미지를 보정부(22)가 전달받고, 보정부(22)가 왜곡된 이미지를 보정하는 제1 이미지 처리단계(S210)와 상기 이미지 정보의 문자 및 기준선(120)을 명확하게 변환하는 제2 이미지 처리단계(S220)를 포함할 수 있다.The correction step (S200) is a first image processing step (S210) in which the correction unit 22 receives the image and the correction unit 22 corrects the distorted image, and the text and reference line 120 of the image information It may include a second image processing step (S220) that clearly converts.

제1 이미지 처리단계(S210)는 보정부(22)가 원근 변환을 수행하여 왜곡된 이미지를 보정하는 단계 일 수 있다.The first image processing step (S210) may be a step in which the correction unit 22 performs perspective conversion to correct a distorted image.

일례로, 상기 각도 측정단계(S120)에서 각도 정보를 이용하여, 원근 변환을 수행한다. 각도 값을 원근 변환을 위한 변환 행렬에 대입하여 이미지의 모양을 왜곡되지 않은 상태로 변환하는 단계일 수 있다.For example, in the angle measurement step (S120), perspective transformation is performed using angle information. This may be a step in which the shape of the image is converted to an undistorted state by substituting the angle value into a transformation matrix for perspective conversion.

제2 이미지 처리단계(S220)는, 이미지 정보에서 흘수 측정을 위해 필요로 하는 흘수 마크(110)와 기준선(120)에 대하여 인식부(23)가 쉽게 인식하도록 변환하는 단계일 수 있다. The second image processing step (S220) may be a step of converting the image information so that the recognition unit 23 can easily recognize the draft mark 110 and the reference line 120 required for measuring the draft.

일례로, 형태 이미지 가공 또는 모폴로지(morphology) 이미지 가공일 수 있다. 상기 제2 이미지 처리단계(S220)는, 상기 이미지를 흑백 변환을 통하여 흑백 이미지로 변환하는 흑백변환의 제2-1 이미지 처리단계(S221)와, 상기 흑백 이미지에 대하여 경계 이미지를 추출하는 형태적 구배(Morph Gradient)에 따른 제2-2 이미지 처리단계(S222)와, 상기 경계 이미지에 대하여 일정 영역별로 임계값 검출(Adaptive Threshold) 변환을 수행하는 제2-3 이미지 처리단계(S223)와, 상기 경계 이미지에 있어서 상기 경계 이미지의 불연속적인 점 또는 선이 존재하는 경우, 상기 점 또는 선을 이어주는 변환(Morph Close)을 수행하는 제2-4 이미지 처리단계(S224) 및 상기 이미지에 있어서 특정 조건을 만족하는 불필요한 선을 제거하는 변환(Long Line Remove)인 제2-5 이미지 처리단계(S225)를 포함할 수 있다.For example, it may be shape image processing or morphology image processing. The second image processing step (S220) includes a 2-1 image processing step of black-and-white conversion (S221) of converting the image into a black-and-white image through black-and-white conversion, and a morphological process of extracting a boundary image from the black-and-white image. A 2-2 image processing step (S222) according to the gradient (Morph Gradient), a 2-3 image processing step (S223) of performing threshold detection (Adaptive Threshold) conversion for each certain area on the boundary image, If there is a discontinuous point or line of the border image in the border image, a 2-4 image processing step (S224) of performing a transformation (Morph Close) connecting the point or line and a specific condition in the image It may include a 2-5 image processing step (S225), which is a transformation (Long Line Remove) that removes unnecessary lines that satisfies .

인식단계(S300)는, 인식부(23)가 보정된 상기 이미지 정보에서 광학 문자 인식을 통하여 흘수 측정에 필요한 흘수 마크(110) 및 흘수 측량의 기준선(120)을 인식하는 단계이다.The recognition step (S300) is a step in which the recognition unit 23 recognizes the draft mark 110 and the baseline 120 for draft measurement required for draft measurement through optical character recognition in the corrected image information.

계산단계(S500)는, 연산부(24)가 상기 흘수 마크(110) 및 기준선(120)으로 흘수를 연산하는 단계이다. The calculation step (S500) is a step in which the calculation unit 24 calculates the draft using the draft mark 110 and the reference line 120.

일례로서, 계산단계(S500)에 있어서, 상기 무인비행체(1)의 촬영부(11)가 복수의 촬영 지점에서 각각 복수의 상기 이미지 정보를 획득할 수 있고, 각각의 촬영 지점에 따른 인식된 흘수 마크(110) 및 측량 기준선(120)으로 평균을 계산한 후에 흘수 값을 연산할 수 있다.As an example, in the calculation step (S500), the photographing unit 11 of the unmanned air vehicle 1 may acquire a plurality of the image information at a plurality of photographing points, and the recognized draft according to each photographing point. After calculating the average with the mark 110 and the survey reference line 120, the draft value can be calculated.

그리고, 연산부(24)에 의하여 획득된 흘수 값을 디스플레이 장치(3)에 표시하는 표시단계(미도시)를 더 포함하고 있을 수도 있다.In addition, a display step (not shown) of displaying the draft value obtained by the calculation unit 24 on the display device 3 may be further included.

본 발명의 또다른 실시예에 따르면, 상기 무인비행체(1)의 촬영부(11)가 복수의 촬영 지점에서 각각 복수의 상기 이미지 정보를 획득할 수 있고, 상기 복수의 이미지 정보에 대하여 상기 보정단계(S200) 내지 상기 계산단계(S500)를 수행할 수 있다. 이 때, 연산부(24)는 계산단계(S500)에서 연산 전 평균 값을 계산하지 않아야 한다. According to another embodiment of the present invention, the photographing unit 11 of the unmanned air vehicle 1 can acquire a plurality of image information from a plurality of photographing points, and the correction step for the plurality of image information (S200) to the calculation step (S500) can be performed. At this time, the calculation unit 24 must not calculate the average value before calculation in the calculation step (S500).

연산부(24)는 상기 계산단계(S500) 이후에, 상기 복수의 이미지 정보에서 계산된 상기 흘수에 대한 평균을 연산하는 평균단계(S600)를 더 포함할 수 있다.After the calculation step (S500), the calculation unit 24 may further include an average step (S600) of calculating an average for the draft calculated from the plurality of image information.

일례로, 복수의 촬영 지점에서 획득된 복수의 이미지 정보는, 복수의 촬영 지점에서 획득된 하나의 이미지로 구분하여 세트 정보로서, 복수의 세트 정보가 될 수 있다. 예를 들어 제1 지점내지 제6 지점에서 촬영되고, 각 지점마다 세번씩 촬영되었다면, 제1 지점 내지 제6 지점에서 촬영된 첫번째 이미지 정보가 하나의 세트를 구성하고, 두번째 이미지 정보들이 또 다른 하나의 세트를 구성하고, 세번째 이미지 정보들이 마지막 세트를 구성하는 방식을 예로 들 수 있다. 이 경우에 하나의 세트당 하나의 흘수 값이 측정되고, 세 세트의 평균으로 흘수 값을 도출할 수 있다.For example, a plurality of image information acquired from a plurality of shooting points can be divided into one image acquired from a plurality of shooting points and become a plurality of set information. For example, if images are taken from points 1 to 6, and each point is taken three times, the first image information taken at points 1 to 6 constitutes one set, and the second image information constitutes another set. An example is how a set of is formed, and the third image information forms the final set. In this case, one draft value is measured per set, and the draft value can be derived as the average of the three sets.

평균 방식을 이용하여 연산된 흘수 값의 실제 흘수 값과 오차를 줄일 수 있는 효과를 제공한다.It provides the effect of reducing the error between the actual draft value and the calculated draft value using the average method.

본 발명의 또다른 실시예로서, 평균단계(S600)와 마찬가지로, 정확도를 높이기 위해 상기 인식단계(S300)와 계산단계(S500)의 사이에 비교단계(S400)를 더 포함할 수 있다.As another embodiment of the present invention, like the averaging step (S600), a comparison step (S400) may be further included between the recognition step (S300) and the calculation step (S500) to increase accuracy.

비교단계(S400)는, 상기 계산단계(S500) 이전에, 상기 인식단계(S300)에서 각각의 상기 촬영 지점의 복수의 상기 이미지 정보에서 획득된 상기 흘수 마크(110)의 문자에 대하여 비교하여 유의미한 문자를 확인하는 단계일 수 있다. The comparison step (S400), before the calculation step (S500), compares the characters of the draft mark 110 obtained from the plurality of image information of each shooting point in the recognition step (S300) to determine a significant This may be a step to check the text.

예를 들어 제1 지점내지 제6 지점에서 촬영되고, 각 지점마다 다섯번씩 촬영되었다면, 각 지점의 다섯개의 이미지에서 인식된 흘수 마크(110)와 기준선(120)의 정보를 각각 비교하여 일정한 범위를 벗어나는 데이터가 인식된 경우 제거하거나, 가장 큰 값과 가장 작은 값을 제거하여 사용하는 등의 방식을 고려할 수 있다.For example, if images were taken at points 1 to 6, and each point was taken five times, the information on the draft mark 110 and the reference line 120 recognized in the five images at each point are compared to determine a certain range. If data that deviates is recognized, methods such as removing it or using it by removing the largest and smallest values can be considered.

상기의 예에 따른 촬영 회수에 제한되지 않고, 촬영 횟수를 높일수록 그 정확도는 증가할 수 있다.The number of shots according to the above example is not limited, and the accuracy may increase as the number of shots increases.

오류에 의한 데이터 인식을 방지하고, 촬영 또는 각도 측정이 잘못된 경우에 발생하는 오차 등을 제거하여 흘수 값의 정확도를 높이는 효과를 제공한다. 상기 비교단계(S400)와 평균단계(S600)가 모두 수행될 수도 있다.It prevents data recognition due to errors and improves the accuracy of draft values by eliminating errors that occur when shooting or angle measurement is incorrect. Both the comparison step (S400) and the averaging step (S600) may be performed.

본 발명과 같은 흘수 측정 방법에 따라, 직접 사람이 전마선 등을 이용하여 선박에 가까이 가지 않고 측정 가능하며, 수면이 날씨에 의하여 불안정하였을 때 측정이 어려운 점 등의 직접 사람이 측정했을 때의 어려움을 방지할 수 있다. 그리고, 무인비행체가 이미지 정보를 여러 번 촬영하여 흘수 값의 정확도를 높이는 효과를 제공한다.According to the method of measuring draft such as the present invention, it is possible for a person to measure the draft without going close to the ship using an electric wire, etc., and it is possible to avoid the difficulties of measuring it directly by a person, such as difficulty in measuring when the water surface is unstable due to weather. It can be prevented. Additionally, the unmanned aerial vehicle captures image information multiple times, providing the effect of increasing the accuracy of the draft value.

이상에서는 본 발명을 실시예를 중심으로 설명하였지만, 본 발명은 상술한 실시예에 한정되지 않으며, 청구범위에서 청구되는 본 발명의 기술적 사상의 변화 없이 통상의 기술자에 의해서 변형되어 실시될 수 있음은 물론이다.In the above, the present invention has been described focusing on the embodiments, but the present invention is not limited to the above-described embodiments, and may be modified and implemented by those skilled in the art without changing the technical spirit of the present invention as claimed in the claims. Of course.

1: 무인비행체 2: 서버
3: 디스플레이장치
11: 촬영부 12: 측정부
13: 레코더부 14: 제어부
15: 정보수신부 16: 정보송신부
21: 저장부 22: 보정부
23: 인식부 24: 연산부
25: 서버송수신부
S100: 정보 획득단계 S110: 이미지 촬영단계
S120: 각도 측정단계 S200: 보정단계
S210: 제1 이미지 처리단계 S220: 제2 이미지 처리단계
S300: 인식단계 S400: 비교단계
S500: 계산단계 S600: 평균단계
1: Unmanned aerial vehicle 2: Server
3: Display device
11: imaging unit 12: measuring unit
13: recorder section 14: control section
15: Information reception unit 16: Information transmission unit
21: storage unit 22: correction unit
23: recognition unit 24: calculation unit
25: Server transceiver
S100: Information acquisition step S110: Image shooting step
S120: Angle measurement step S200: Correction step
S210: First image processing step S220: Second image processing step
S300: Recognition step S400: Comparison step
S500: Calculation step S600: Average step

Claims (11)

선박의 흘수 마크를 포함하는 이미지를 촬영하여 이미지 정보를 획득하는 정보 획득단계;
상기 이미지 정보를 이미지 변환 기법을 이용하여 왜곡된 이미지를 보정하는 보정단계;
보정된 상기 이미지 정보에서 흘수 마크 및 흘수 측량의 기준선을 광학 문자 인식(Optical Character Recognition, OCR)을 통하여 인식하는 인식단계; 및
상기 흘수 마크 및 기준선으로 흘수를 연산하는 계산단계;를 포함하는 흘수 측정 방법.
An information acquisition step of acquiring image information by photographing an image including a ship's draft mark;
A correction step of correcting a distorted image using the image information using an image conversion technique;
A recognition step of recognizing the draft mark and the baseline of the draft survey from the corrected image information through optical character recognition (OCR); and
A draft measurement method including a calculation step of calculating the draft using the draft mark and reference line.
제1항에 있어서,
상기 정보 획득단계는,
무인비행체의 촬영부가 복수의 촬영 지점에서 각각 복수의 상기 이미지 정보를 획득하는 이미지 촬영단계를 포함하고,
상기 계산단계 이후에,
상기 보정단계 내지 상기 계산단계가 수행된 상기 복수의 이미지 정보에서 계산된 상기 흘수의 평균 값을 연산하는 평균단계;를 더 포함하는 흘수 측정 방법.
According to paragraph 1,
The information acquisition step is,
An image capturing step in which the capturing unit of the unmanned aerial vehicle acquires a plurality of the image information at each of a plurality of capturing points,
After the above calculation step,
A draft measurement method further comprising: an averaging step of calculating an average value of the draft calculated from the plurality of image information on which the correction step or the calculation step was performed.
제2항에 있어서,
상기 획득단계에 있어서,
상기 무인비행체에 구비된 측정부를 통하여 상기 기준선의 한 지점과 상기 무인비행체가 상기 이미지 정보를 획득하는 위치의 각도를 측정하는 각도 측정단계;를 더 포함하고,
상기 보정단계에 있어서, 상기 이미지 변환 기법은 원근 변환으로서 상기 각도를 이용하여 보정하는 제1 이미지 처리단계를 포함하는 흘수 측정 방법.
According to paragraph 2,
In the acquisition step,
It further includes an angle measuring step of measuring the angle between a point of the reference line and a position at which the unmanned aerial vehicle acquires the image information through a measuring unit provided in the unmanned aerial vehicle,
In the correction step, the image conversion technique is a draft measurement method including a first image processing step of correcting using the angle as perspective conversion.
제3항에 있어서,
상기 제1 이미지 처리단계 이후에,
상기 이미지 정보의 문자 및 기준선을 명확하게 변환하는 제2 이미지 처리단계를 더 포함하는 흘수 측정 방법.
According to paragraph 3,
After the first image processing step,
A draft measurement method further comprising a second image processing step of clearly converting the characters and baseline of the image information.
제4항에 있어서,
상기 제2 이미지 처리단계는,
상기 이미지를 흑백 변환을 통하여 흑백 이미지로 변환하는 제2-1 이미지 처리단계;
상기 흑백 이미지에 대하여 경계 이미지를 추출하는 제2-2 이미지 처리단계;
상기 경계 이미지에 대하여 일정 영역별로 임계값 검출(Adaptive Threshold) 변환을 수행하는 제2-3 이미지 처리단계;
상기 경계 이미지에 있어서 상기 경계 이미지의 불연속적인 점 또는 선이 존재하는 경우, 상기 점 또는 선을 이어주는 변환을 수행하는 제2-4 이미지 처리단계; 및
상기 이미지에 있어서 특정 조건을 만족하는 불필요한 선을 제거하는 제2-5 이미지 처리단계;를 포함하는 흘수 측정 방법.
According to clause 4,
The second image processing step is,
A 2-1 image processing step of converting the image into a black and white image through black and white conversion;
A 2-2 image processing step of extracting a boundary image from the black and white image;
A 2-3 image processing step of performing adaptive threshold conversion for each predetermined area on the boundary image;
If there are discontinuous points or lines in the border image, a 2-4 image processing step of performing transformation to connect the points or lines; and
A 2-5 image processing step of removing unnecessary lines that satisfy specific conditions in the image.
제5항에 있어서,
상기 무인비행체는 상기 선박의 촬영 지점에서 촬영하고, 복수의 상기 촬영 지점마다 복수의 상기 이미지 정보를 획득하며,
상기 계산단계 이전에, 상기 인식단계에서 각각의 상기 촬영 지점의 복수의 상기 이미지 정보에서 획득된 상기 흘수 마크의 문자에 대하여 비교하여 유의미한 문자를 확인하는 비교단계;를 더 포함하는 흘수 측정 방법.
According to clause 5,
The unmanned aerial vehicle captures images from the photographing points of the ship and acquires a plurality of image information for each of the plurality of photographing points,
Before the calculation step, a comparison step of confirming significant characters by comparing them with the characters of the draft mark obtained from the plurality of image information of each of the photographing points in the recognition step. A draft measurement method further comprising a.
선박의 흘수 측정을 위한 기준선과 흘수 마크를 촬영하여 획득한 이미지 정보의 왜곡된 정보를 이미지 변환 기법에 의하여 변환하고, 상기 이미지 정보에서 글자 및 기준선을 추출하기 위하여 형태(morphology) 이미지 가공을 수행하는 보정부와,
상기 보정부에서 이미지 가공이 수행된 상기 이미지 정보에서 광학 문자 인식을 통하여 상기 기준선과 상기 흘수 마크를 인식하는 인식부와,
상기 인식부에서 획득한 상기 기준선과 상기 흘수 마크로 흘수를 연산하는 연산부를 포함하는 흘수 측정 시스템.
The distorted information of the image information obtained by photographing the baseline and draft mark for measuring the draft of the ship is converted using an image conversion technique, and morphology image processing is performed to extract letters and baselines from the image information. correction department,
a recognition unit that recognizes the reference line and the draft mark through optical character recognition in the image information on which image processing has been performed in the correction unit;
A draft measurement system including a calculation unit that calculates the draft using the reference line and the draft mark obtained from the recognition unit.
제7항에 있어서,
상기 이미지 정보는 무인비행체에 의하여 획득되고,
상기 무인비행체는,
상기 이미지 정보를 촬영하는 촬영부와, 상기 이미지 정보를 촬영하는 지점과 실제 측정이 되어야하는 지점의 각도를 측정하기 위하여 레이더를 발사하는 측정부를 포함하는 흘수 측정 시스템.
In clause 7,
The image information is acquired by an unmanned aerial vehicle,
The unmanned aerial vehicle,
A draft measurement system comprising a photographing unit that photographs the image information, and a measuring portion that fires a radar to measure the angle between the point where the image information is photographed and the point that should actually be measured.
제8항에 있어서,
상기 측정부는,
촬영 지점에서 수면과 평행한 제1 방향으로의 상기 선박까지 길이인 제1 길이와 상기 수면과 수직한 제2 방향으로의 상기 수면까지의 길이인 제2 길이를 측정하여, 상기 촬영 지점에서 상기 기준선이 제1 방향 또는 제2 방향과 이루는 각도를 측정하고,
상기 각도를 이용하여 상기 보정부에서 왜곡된 상기 이미지를 변환하는 것을 특징으로 하는 흘수 측정 시스템.
According to clause 8,
The measuring unit,
A first length, which is the length from the photographing point to the ship in a first direction parallel to the water surface, and a second length, which is the length from the photographing point to the water surface in a second direction perpendicular to the water surface, are measured, and the reference line is measured at the photographing point. Measure the angle formed with this first or second direction,
A draft measurement system, characterized in that the distorted image is converted in the correction unit using the angle.
제7항에 있어서,
상기 연산부에서 연산된 결과를 표시하는 디스플레이 장치를 더 포함하는 흘수 측정 시스템.
In clause 7,
A draft measurement system further comprising a display device that displays results calculated by the calculation unit.
제8항에 있어서,
상기 무인비행체는,
상기 이미지 정보와 상기 각도에 대하여 측정 값을 저장하는 레코더부를 더 포함하는 흘수 측정 시스템.
According to clause 8,
The unmanned aerial vehicle,
A draft measurement system further comprising a recorder unit that stores measured values for the image information and the angle.
KR1020220141664A 2022-10-28 2022-10-28 Draft Measurement System and Draft Measuring Method KR20240060263A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220141664A KR20240060263A (en) 2022-10-28 2022-10-28 Draft Measurement System and Draft Measuring Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220141664A KR20240060263A (en) 2022-10-28 2022-10-28 Draft Measurement System and Draft Measuring Method

Publications (1)

Publication Number Publication Date
KR20240060263A true KR20240060263A (en) 2024-05-08

Family

ID=91074137

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220141664A KR20240060263A (en) 2022-10-28 2022-10-28 Draft Measurement System and Draft Measuring Method

Country Status (1)

Country Link
KR (1) KR20240060263A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190019336A (en) 2017-08-17 2019-02-27 대우조선해양 주식회사 Measurement and control device of ship water line

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190019336A (en) 2017-08-17 2019-02-27 대우조선해양 주식회사 Measurement and control device of ship water line

Similar Documents

Publication Publication Date Title
CN107203222B (en) Method for realizing ship water gauge image and video shooting by unmanned aerial vehicle
CN105678689B (en) High-precision map data registration relation determining method and device
CN110866871A (en) Text image correction method and device, computer equipment and storage medium
CN111476120B (en) Unmanned aerial vehicle intelligent ship water gauge identification method and device
KR102345873B1 (en) The method and System of Wave Observation Using Camera Module for Ocean Observation Buoy
CN111028154A (en) Rough-terrain seabed side-scan sonar image matching and splicing method
CN110712720A (en) System for measuring draught of ship and using method thereof
CN110675341B (en) Monocular-vision-guided underwater robot and seabed platform butt joint method
CN110717924A (en) Ship water gauge marking recognition method and device, computer equipment and storage medium
CN112101222A (en) Sea surface three-dimensional target detection method based on unmanned ship multi-mode sensor
CN112614177A (en) Sea ice thickness identification system and method suitable for ship ice area sailing test
CN112347827A (en) Automatic detection method and system for ship water gauge
Paccaud et al. Obstacle detection for lake-deployed autonomous surface vehicles using RGB imagery
KR20240060263A (en) Draft Measurement System and Draft Measuring Method
CN116682286B (en) Ship early warning method and system based on offshore target detection
CN116597447A (en) Unmanned aerial vehicle image recognition-based ship berthing draft detection and early warning method
Sumimoto et al. Machine vision for detection of the rescue target in the marine casualty
CA3237725A1 (en) Systems and methods for draft calculation
Ivanovskii The Concept of Automated Draught Survey System for Marine Ships
CN118262361A (en) Ship load water gauge identification method, system, electronic equipment and storage medium
JP7270537B2 (en) Object detection device, ship, and object detection method
CN110968722A (en) Platform identification and measurement method for autonomous landing of unmanned aerial vehicle
Huillca et al. Computing vessel velocity from single perspective projection images
KR20140033597A (en) Draft measuring method
CN118038472A (en) Ship water gauge intelligent identification method based on machine vision and deep learning

Legal Events

Date Code Title Description
E902 Notification of reason for refusal