KR20240060263A - Draft Measurement System and Draft Measuring Method - Google Patents
Draft Measurement System and Draft Measuring Method Download PDFInfo
- Publication number
- KR20240060263A KR20240060263A KR1020220141664A KR20220141664A KR20240060263A KR 20240060263 A KR20240060263 A KR 20240060263A KR 1020220141664 A KR1020220141664 A KR 1020220141664A KR 20220141664 A KR20220141664 A KR 20220141664A KR 20240060263 A KR20240060263 A KR 20240060263A
- Authority
- KR
- South Korea
- Prior art keywords
- draft
- image
- image information
- unit
- information
- Prior art date
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 41
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000004364 calculation method Methods 0.000 claims abstract description 31
- 238000012937 correction Methods 0.000 claims abstract description 31
- 238000000691 measurement method Methods 0.000 claims abstract description 14
- 238000012545 processing Methods 0.000 claims description 40
- 238000006243 chemical reaction Methods 0.000 claims description 23
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 12
- 238000012015 optical character recognition Methods 0.000 claims description 9
- 238000012935 Averaging Methods 0.000 claims description 3
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 5
- 238000012360 testing method Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000003412 degenerative effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000001483 mobilizing effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B63—SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
- B63B—SHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING
- B63B39/00—Equipment to decrease pitch, roll, or like unwanted vessel movements; Apparatus for indicating vessel attitude
- B63B39/12—Equipment to decrease pitch, roll, or like unwanted vessel movements; Apparatus for indicating vessel attitude for indicating draught or load
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/155—Segmentation; Edge detection involving morphological operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Aviation & Aerospace Engineering (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Mechanical Engineering (AREA)
- Ocean & Marine Engineering (AREA)
- Image Processing (AREA)
Abstract
본 발명은 본 발명은 무인비행체를 이용하여 흘수에 대한 이미지 정보를 획득하고, 이미지 정보를 처리하여 흘수 측정하는 흘수 측정 시스템 및 흘수 측정 방법에 대한 것으로서, 흘수 측정 시스템은 보정부와 인식부 및 연산부를 포함할 수 있고, 흘수 측정 방법은 정보 획득단계, 보정단계, 인식단계 및 계산단계를 포함할 수 있다.The present invention relates to a draft measurement system and a draft measurement method that acquire image information about the draft using an unmanned aerial vehicle, process the image information, and measure the draft. The draft measurement system includes a correction unit, a recognition unit, and a calculation unit. It may include, and the draft measurement method may include an information acquisition step, a correction step, a recognition step, and a calculation step.
Description
본 발명은 무인비행체를 이용하여 흘수에 대한 이미지 정보를 획득하고, 이미지 정보를 처리하여 흘수 측정하는 흘수 측정 시스템 및 흘수 측정 방법에 대한 것이다.The present invention relates to a draft measurement system and method for obtaining image information about the draft using an unmanned aerial vehicle, processing the image information, and measuring the draft.
선박은 진수 단계에서 중사 시험(Draught Survey) 또는 경사 시험(Inclining Test)을 진행한다. 경사 시험은 건조된 선박의 무게중심과 선박의 무게인 경하중량(Light Weight)을 파악하기 위한 목적이고, 중사 시험은 화물을 무게인 재화중량(Dead Weight)을 파악하기 위한 목적의 시험이다.Ships undergo a draught survey or inclining test at the launch stage. The incline test is intended to determine the center of gravity of the built ship and the light weight, which is the weight of the ship, while the tilt test is intended to determine the dead weight, which is the weight of the cargo.
일반적으로, 중사 시험은 요구되는 선박의 여섯 군데의 위치에서 흘수 마크(draft marking)를 확인하고, 흘수선 계측용 게이지(Draught Reading Gauge, Hydrometer)로 계측하여 진행을 한다. 이러한 계측을 위하여 전마선에 여러 명의 감독관이 탑승하여 직접 이동하여야만 하였다. Generally, the petty sand test is conducted by checking draft markings at six locations on the required ship and measuring them with a draft reading gauge (hydrometer). In order to make these measurements, several supervisors had to board the electric wire and travel in person.
또한, 테스트 선박이 안벽에 이중으로 계류되어 있거나, 안벽 외 내항에서 시험이 수행되는 경우에는 중사 시험을 위하여 예인선을 이용하여 선박을 이동시켜야 하는 등의 문제가 있다.In addition, if the test vessel is double moored at the quay wall or the test is performed in the inner harbor outside the quay wall, there is a problem such as having to move the vessel using a tugboat for the quay test.
그러므로, 상기 언급한 문제점이 발생하지 않는 흘수 측정 시스템과 방법이 필요한 실정이다.Therefore, there is a need for a draft measurement system and method that does not cause the above-mentioned problems.
본 발명은 위와 같은 문제를 해결하기 위한 것으로, 무인비행체를 이용하여 촬영한 이미지 정보로 흘수 측정할 수 있는 흘수 측정 시스템 또는 방법을 제공하는 것을 목적으로 한다.The present invention is intended to solve the above problems, and its purpose is to provide a draft measurement system or method that can measure draft using image information captured using an unmanned aerial vehicle.
본 발명은 위와 같은 목적을 달성하기 위하여 다음과 같이 형성된 흘수 측정 시스템 및 방법을 제공한다.In order to achieve the above object, the present invention provides a draft measurement system and method formed as follows.
본 발명의 일실시예에 따른 흘수 측정 시스템은, 선박의 흘수 측정을 위한 기준선과 흘수 마크를 촬영하여 획득한 이미지 정보의 왜곡된 정보를 이미지 변환 기법에 의하여 변환하고, 상기 이미지 정보에서 글자 및 기준선을 추출하기 위하여 형태(morphology) 이미지 가공을 수행하는 보정부와, 상기 보정부에서 이미지 가공이 수행된 상기 이미지 정보에서 광학 문자 인식을 통하여 상기 기준선과 상기 흘수 마크를 인식하는 인식부와, 상기 인식부에서 획득한 상기 기준선과 상기 흘수 마크로 흘수를 연산하는 연산부를 포함한다.The draft measurement system according to an embodiment of the present invention converts distorted information of image information obtained by photographing a baseline and a draft mark for measuring the draft of a ship using an image conversion technique, and converts letters and baselines from the image information. A correction unit that performs morphology image processing to extract a shape (morphology) image processing, a recognition unit that recognizes the reference line and the draft mark through optical character recognition in the image information on which image processing was performed in the correction unit, and the recognition unit It includes a calculation unit that calculates the draft using the reference line and the draft mark obtained from the unit.
또한, 상기 이미지 정보는 무인비행체에 의하여 획득되고, 상기 무인비행체는, 상기 이미지 정보를 촬영하는 촬영부와, 상기 이미지 정보를 촬영하는 지점과 실제 측정이 되어야하는 지점의 각도를 측정하기 위하여 레이더를 발사하는 측정부를 포함할 수 있다.In addition, the image information is acquired by an unmanned aerial vehicle, and the unmanned aerial vehicle includes a photographing unit that photographs the image information, and a radar to measure the angle between the point where the image information is photographed and the point where actual measurement is to be performed. It may include a measuring unit that fires.
본 발명의 일실시예에 따른 흘수 측정 방법은, 선박의 흘수 마크를 포함하는 이미지를 촬영하여 이미지 정보를 획득하는 정보 획득단계와, 상기 이미지 정보를 이미지 변환 기법을 이용하여 왜곡된 이미지를 보정하는 보정단계와, 보정된 상기 이미지 정보에서 흘수 마크 및 흘수 측량의 기준선을 광학 문자 인식(Optical Character Recognition, OCR)을 통하여 인식하는 인식단계 및 상기 흘수 마크 및 기준선으로 흘수를 연산하는 계산단계를 포함한다. The draft measurement method according to an embodiment of the present invention includes an information acquisition step of acquiring image information by taking an image including a ship's draft mark, and correcting a distorted image using the image information using an image conversion technique. It includes a correction step, a recognition step of recognizing the draft mark and the baseline of the draft survey from the corrected image information through optical character recognition (OCR), and a calculation step of calculating the draft using the draft mark and baseline. .
본 발명은 위와 같은 구조 및 방법을 통하여, 직접적으로 선박의 흘수를 수동 게이지로 측정하지 않고 흘수를 측정할 수 있고, 예인선이나 전마선을 동원하지 않고 측정가능한 이점을 제공한다. Through the above structure and method, the present invention provides the advantage of being able to measure the draft of a ship without directly measuring it with a manual gauge, and of being able to measure it without mobilizing a tugboat or electric wire.
도 1은 본 발명의 일실시예에 따른 흘수 측정 시스템의 개략도이다.
도 2는 본 발명의 일실시예에 따라 무인비행체가 선박의 이미지 정보 획득과 각도 측정하는 상태를 도시한다.
도 3은 선박에서 무인비행체가 촬영하는 흘수 마크 및 기준선을 도시한다.
도 4는 본 발명의 일실시예에 따라 보정된 이미지 정보로서, (a)는 원근 변환된 상태의 이미지 정보이고, (b)는 형태 이미지 가공이 수행된 상태의 이미지 정보를 도시한다.
도 5는 본 발명의 일실시예에 따른 흘수 측정 방법을 도시한 순서도이다.
도 6은 본 발명의 또다른 실시예에 따른 흘수 측정 방법을 도시한 순서도이다.
도 7은 제2 이미지 처리단계를 도시한 순서도이다.1 is a schematic diagram of a draft measurement system according to an embodiment of the present invention.
Figure 2 shows a state in which an unmanned aerial vehicle acquires image information and measures an angle of a ship according to an embodiment of the present invention.
Figure 3 shows a draft mark and reference line taken by an unmanned aerial vehicle on a ship.
Figure 4 shows image information corrected according to an embodiment of the present invention. (a) shows image information in a perspective converted state, and (b) shows image information in a state in which form image processing has been performed.
Figure 5 is a flowchart showing a method for measuring draft according to an embodiment of the present invention.
Figure 6 is a flowchart showing a draft measurement method according to another embodiment of the present invention.
Figure 7 is a flowchart showing the second image processing step.
이하에서는 첨부된 도면을 참고로 하여, 본 발명의 구체적인 실시예에 대하여 설명하도록 한다. 다만, 본 발명의 사상은 제시되는 실시예에 제한되지 아니하고, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서 다른 구성요소를 추가, 변경 또는 삭제 등을 통하여, 퇴보적인 다른 발명이나 본 발명 사상의 범위 내에 포함되는 다른 실시예를 용이하게 제안할 수 있을 것이나, 이 또한 본원 발명 사상의 범위 내에 포함된다고 할 것이다.Hereinafter, specific embodiments of the present invention will be described with reference to the attached drawings. However, the spirit of the present invention is not limited to the presented embodiments, and those skilled in the art who understand the spirit of the present invention may add, change, or delete other components within the scope of the same spirit, or create other degenerative inventions or this invention. Other embodiments that are included within the scope of the inventive idea can be easily proposed, but it will also be said that this is included within the scope of the inventive idea of the present application.
또한, 본 발명을 설명함에 있어, '~ 부' 또는 '유닛'은 다양한 방식, 예를 들면 프로세서, 프로세서에 의해 수행되는 프로그램 명령들, 소프트웨어 모듈, 마이크로 코드, 컴퓨터 프로그램 생성물, 로직 회로, 애플리케이션 전용 집적 회로, 펌웨어 등에 의해 구현될 수 있다.In addition, in describing the present invention, '~ part' or 'unit' may be used in various ways, for example, a processor, program instructions executed by the processor, software module, microcode, computer program product, logic circuit, application-specific It can be implemented by an integrated circuit, firmware, etc.
본 출원의 실시예에 개시된 방법의 내용은 하드웨어 프로세서로 직접 구현될 수 있으며, 또는 프로세서 중 하드웨어 및 소프트웨어 모듈의 조합으로 구현되어 수행 완성될 수 있다. 소프트웨어 모듈은 랜덤 액세스 메모리, 플래시 메모리, 판독 전용 메모리, 프로그래머블 판독 전용 메모리 또는 전기적 소거 가능 프로그래머블 메모리, 레지스터 등과 같은 종래의 저장 매체에 저장될 수 있다. 상기 저장 매체는 메모리에 위치하며, 프로세서는 메모리에 저장된 정보를 판독하여, 그 하드웨어와 결합하여 상술한 방법의 내용을 완성한다. 중복되는 것을 방지하기 위해, 여기서는 상세한 설명을 생략한다.The contents of the method disclosed in the embodiments of the present application may be directly implemented with a hardware processor, or may be implemented and completed through a combination of hardware and software modules among the processors. Software modules may be stored in conventional storage media such as random access memory, flash memory, read only memory, programmable read only memory, or electrically erasable programmable memory, registers, etc. The storage medium is located in a memory, and the processor reads the information stored in the memory and combines it with the hardware to complete the content of the method described above. To prevent duplication, detailed description is omitted here.
구현 과정에서, 상술한 방법의 각 내용은 프로세서 중 하드웨어의 논리 집적 회로 또는 소프트웨어 형태의 인스트럭션에 의해 완성될 수 있다. 본 출원의 실시예에 개시된 방법의 내용은 하드웨어 프로세서로 직접 구현될 수 있으며, 또는 프로세서 중 하드웨어 및 소프트웨어 모듈의 조합으로 구현되어 수행 완성될 수 있다. 소프트웨어 모듈은 랜덤 액세스 메모리, 플래시 메모리, 판독 전용 메모리, 프로그래머블 판독 전용 메모리 또는 전기적 소거 가능 프로그래머블 메모리, 레지스터 등과 같은 종래의 저장 매체에 저장될 수 있다. 상기 저장 매체는 메모리에 위치하며, 프로세서는 메모리에 저장된 정보를 판독하여, 그 하드웨어와 결합하여 상술한 방법의 내용을 완성한다.In the implementation process, each content of the above-described method can be completed by a logical integrated circuit of hardware among processors or instructions in the form of software. The contents of the method disclosed in the embodiments of the present application may be directly implemented with a hardware processor, or may be implemented and completed through a combination of hardware and software modules among the processors. Software modules may be stored in conventional storage media such as random access memory, flash memory, read only memory, programmable read only memory, or electrically erasable programmable memory, registers, etc. The storage medium is located in a memory, and the processor reads the information stored in the memory and combines it with the hardware to complete the content of the method described above.
즉, 본 분야에서 통상의 지식을 가진 자들은, 본 명세서에서 개시한 실시예에서 설명하는 각 예시적인 유닛 및 알고리즘 단계를 결합하여, 전자 하드웨어 또는 컴퓨터 소프트웨어와 전자 하드웨어의 결합으로 실현할 수 있음을 알 수 있다. 이러한 기능을 하드웨어 방식으로 수행할 것인지 아니면 소프트웨어 방식으로 수행할 것인지는, 기술방안의 특정 응용과 설계 제약 조건에 의해 결정된다. 통상의 지식을 가진 자들은 특정된 응용 각각에 대해 서로 다른 방법을 사용하여 설명한 기능을 실현할 수 있지만, 이러한 실현은 본 출원의 범위를 벗어난 것으로 간주되어서는 안된다.That is, those skilled in the art will know that each exemplary unit and algorithm step described in the embodiments disclosed herein can be combined and realized by electronic hardware or a combination of computer software and electronic hardware. You can. Whether these functions are performed by hardware or software is determined by the specific application and design constraints of the technical solution. Those skilled in the art may implement the described functionality using different methods for each particular application, but such implementation should not be considered beyond the scope of the present application.
본 출원에서 제공하는 몇 개의 실시예에서, 이해해야 할 것은 개시된 장치와 방법은 기타 방식을 통해 실현될 수 있다. 예를 들어, 위에서 설명한 장치 실시예는 단지 예시적인 것으로서, 예를 들어, 상기 유닛의 구분은 단지 일종 논리적 기능 구분으로서, 실제 실현 시 기타의 구분 방식이 존재할 수 있으며, 예를 들어, 복수의 유닛 또는 어셈블리는 다른 하나의 시스템에 결합되거나 집적될 수 있고, 또는 일부 특징은 무시하거나 수행하지 않을 수 있다. 다른 한편, 표시되거나 논의되는 서로 사이의 커플링 또는 직접적인 커플링 또는 통신 연결은 일부 인터페이스, 장치 또는 유닛을 통한 간접적인 커플링 또는 통신 연결일 수 있고, 전기적, 기계적 또는 기타 형태일 수 있다.In some embodiments provided in this application, it should be understood that the disclosed devices and methods may be implemented in other ways. For example, the device embodiments described above are merely illustrative. For example, the division of the units is only a kind of logical function division, and other division methods may exist in actual implementation, for example, a plurality of units. Alternatively, the assembly may be combined or integrated into another system, or some features may be ignored or not performed. On the other hand, the coupling or direct coupling or communication connection between each other shown or discussed may be an indirect coupling or communication connection through some interface, device or unit and may be electrical, mechanical or other form.
위에서 분리된 부품으로서 설명된 유닛은 물리적으로 분리된 것일 수 있고, 유닛으로서 표시되는 부품은 물리적 유닛이거나 아닐 수 있는 바, 즉 한 곳에 위치하거나 복수의 네트워크 유닛에 분포될 수도 있다. 실제 수요에 따라 그 중 일부 또는 모든 유닛을 선택하여 본 실시예의 방안의 목적을 실현할 수 있다.Units described above as separate parts may be physically separated, and parts displayed as units may or may not be physical units, that is, they may be located in one place or distributed across a plurality of network units. Some or all of the units may be selected according to actual demand to realize the purpose of the scheme of this embodiment.
즉, 본 출원의 각 실시예에서의 각 기능 유닛은 하나의 처리 유닛에 집적될 수 있고, 각 유닛이 단독으로 존재할 수도 있으며, 둘 또는 둘 이상의 유닛이 하나의 유닛에 집적될 수도 있다.That is, each functional unit in each embodiment of the present application may be integrated into one processing unit, each unit may exist alone, or two or more than two units may be integrated into one unit.
상기 기능이 만약 소프트웨어 기능 유닛의 형태로 구현되어 독립적인 제품으로서 판매되거나 사용될 경우, 하나의 컴퓨터 판독 가능 저장매체에 저장될 수 있다. 이러한 이해에 기반하여, 본 출원의 기술방안에서 본질적으로 또는 선행기술에 대해 기여한 부분 또는 상기 기술방안의 일부분은 소프트웨어 제품의 형태로 구현될 수 있고, 상기 컴퓨터 소프트웨어 제품은 하나의 저장매체에 저장되며, 약간의 인스트럭션을 포함하여 하나의 컴퓨터 장치(개인 컴퓨터, 서버 또는 네트워크 기기 등일 수 있음)로 하여금 본 출원의 각 실시예에서 설명하는 방법의 전부 또는 일부 단계를 수행하도록 한다. 상술한 저장매체는 USB 메모리, 모바일 하드디스크, 읽기 전용 메모리(Read-Only Memory, ROM), 랜덤 액세스 메모리(Random Access Memory, RAM), 자기 디스크 또는 시디롬 등과 같은 프로그램 코드를 저장할 수 있는 다양한 매체를 포함한다.If the above function is implemented in the form of a software function unit and sold or used as an independent product, it may be stored in a single computer-readable storage medium. Based on this understanding, the part of the technical solution of this application that is essentially or a contribution to the prior art or a part of the technical solution may be implemented in the form of a software product, and the computer software product is stored in a storage medium. , including some instructions to cause one computer device (which may be a personal computer, server, or network device, etc.) to perform all or part of the steps of the method described in each embodiment of the present application. The above-described storage media includes various media that can store program code, such as USB memory, mobile hard disk, read-only memory (ROM), random access memory (RAM), magnetic disk, or CD-ROM. Includes.
도 1은 본 발명의 일실시예에 따른 흘수 측정 시스템을 도시한다.1 shows a draft measurement system according to an embodiment of the present invention.
도 2는 무인비행체가 선박의 흘수를 측정하는 상태를 도시한다. 도 3은 무인비행체가 측정하는 선박 측면을 개략적으로 도시한다. 도 4는 이미지 정보가 가공된 상태를 도시한 것으로서, (a)는 원근 변환된 상태의 이미지 정보이고, (b)는 인식되기 쉽도록 가공된 상태의 이미지 정보이다.Figure 2 shows a state in which an unmanned aerial vehicle measures the draft of a ship. Figure 3 schematically shows the side of the ship measured by the unmanned aerial vehicle. Figure 4 shows a state in which image information has been processed, where (a) is image information in a perspective-converted state, and (b) is image information in a state processed for easy recognition.
본 발명의 일실시예에 따른 흘수 측정 시스템은, 저장부(21), 보정부(22), 인식부(23) 및 연산부(24)가 포함된다. The draft measurement system according to an embodiment of the present invention includes a
그리고 흘수 측정 시스템은 상기와 같은 구성을 포함하는 서버(2), 무인비행체(1) 및 디스플레이 장치(3)를 포함할 수 있다. And the draft measurement system may include a server (2), an unmanned aerial vehicle (1), and a display device (3) including the above configuration.
흘수(吃水) 란 선박이 물 위에 떠 있을 때에 선체가 가라앉는 깊이 즉, 선체의 맨 밑에서 수면까지의 수직 거리를 의미하며, 끽수(喫水)라고 표현되기도 한다.Draft refers to the depth to which the ship's hull sinks when it is floating on the water, that is, the vertical distance from the bottom of the hull to the water, and is also expressed as water.
본 발명은 큰 배와 육지 또는 배와 배 사이의 연락을 맡아 하는 배인 전마선에 인력의 탑승 없이 정확하게 흘수를 측정하는 것을 목적으로 한다.The purpose of the present invention is to accurately measure the draft without manpower aboard a utility ship, which is a ship that acts as a liaison between a large ship and the land or between a ship and a ship.
흘수 측정 시스템은 무인비행체(1), 무인비행체로부터 전달받은 이미지 정보를 처리하는 서버(2) 및 서버(2)의 처리 내용을 표시하는 디스플레이 장치(3)를 포함할 수 있다.The draft measurement system may include an unmanned aerial vehicle (1), a server (2) that processes image information received from the unmanned aerial vehicle, and a display device (3) that displays processing contents of the server (2).
무인비행체(1)는 이미지 정보를 획득하고, 각도 측정을 한다. The unmanned aerial vehicle (1) acquires image information and measures angles.
무인비행체(1)는 일반적으로 드론을 의미할 수 있으며, 흘수 측정 시스템에 있어서 인력 대신 선박에 접근하여 측정 또는 촬영하는 역할을 수행한다.The unmanned aerial vehicle (1) may generally refer to a drone, and in a draft measurement system, it approaches a ship and performs measurements or photographs instead of manpower.
무인비행체(1)에는 이미지 정보를 촬영하는 촬영부(11)와, 인력에 의한 측정시 측정되는 지점과 실제 무인비행체(1)의 측정 지점간 각도를 측정하기 위하여 측정부(12)가 구비된다.The unmanned aerial vehicle (1) is equipped with a photographing unit (11) to capture image information, and a measuring unit (12) to measure the angle between the point measured during human measurement and the actual measurement point of the unmanned aerial vehicle (1). .
촬영부(11)는 일반적인 모든 카메라를 포함하고, 무인비행체(1)에 일체로 형성되어 있지 않고 추가적으로 부착되거나 부가되어 있을 수도 있다. The photographing unit 11 includes all general cameras, and may not be integrally formed with the
무인비행체(1)가 선박(100)의 흘수 측정 위치로 이동되고, 흘수 측정 위치에서 이미지 정보를 획득할 수 있다. 선박의 흘수 마크(110)와 시험 기준선(120)의 이미지를 촬영하여 이미지 정보를 획득할 수 있다. 그리고, 복수의 촬영 지점에서 각각 복수의 상기 이미지 정보를 획득한다. 흘수 측정을 위한 선박(100)의 촬영 위치는 일반적으로 복수의 지점이다. 그리고 각각의 지점에서 복수의 이미지 정보를 획득할 수도 있다.The unmanned
무인비행체(1)가 선박의 흘수를 측정하는 지점은 실제로 인력에 의하여 측정되는 경우와 그 위치가 상이할 수 있다. 일반적으로 선박(100)의 외부 표면에서 수면과 가까운 지점에서 기준선(120)과 흘수 마크(110)를 측정하므로, 큰 오차 없이 측정하게 된다. 그러나, 무인비행체(1)는 선박(100)과의 거리 및 수면과의 거리 모두 크게 차이가 있을 수 있다.The point at which the unmanned aerial vehicle (1) measures the ship's draft may be different from when it is actually measured by manpower. In general, the
측정부(12)는 촬영부(11)에서 획득한 이미지 정보를 보정하기 위한 각도 정보를 측정할 수 있다. 이러한 측정부(12)는 레이더를 통하여 측정할 수도 있다. 그러나, 레이더에 한정되지 않고, 상기 각도(θ)를 얻을 수 있는 모든 측정 수단을 포함할 수 있다.The measuring
일례로서, 상기 이미지 정보를 촬영하는 지점과 실제 측정이 되어야하는 지점의 각도(θ)를 측정하기 위하여 레이더를 조사할 수 있다.As an example, radar can be used to measure the angle (θ) between the point where the image information is captured and the point where actual measurement is to be performed.
일례로서, 측정부(12)는 촬영 지점에서 수면과 평행한 제1 방향과 상기 수면과 수직한 제2 방향의 길이를 각각 측정하여 각도를 도출할 수 있다. 즉, 제1 방향의 상기 선박까지 길이인 제1 길이(L1)와 상기 수면과 수직한 제2 방향으로의 상기 수면까지의 길이인 제2 길이(L2)를 측정할 수 있다. 이를 통하여 상기 촬영 지점을 포함하는 평면과 상기 기준선(120)이 수직하게 위치되는 한 점과 상기 촬영 지점을 잇는 선이 제1 방향 또는 제2 방향으로 이루는 각도(θ)를 측정할 수 있다. As an example, the measuring
무인비행체(1)는 레코더부(13), 제어부(14), 정보수신부(15)와 정보송신부(16)를 더 포함할 수 있다.The unmanned
레코더부(13)는 촬영부(11)에서 획득한 이미지 정보를 저장할 수 있다. 또한, 이미지 정보 이외에 각도 측정 정보도 함께 저장될 수 있다. 그리고, 무인비행체(1)의 내부가 아닌 외부에 구비되어 있을 수 있다.The
제어부(14)는 무인비행체(1)의 비행상태를 제어할 수 있다. 또한, 촬영부(11)와 측정부(12)의 동작을 제어할 수도 있다. 상기와 같은 제어 동작은 사전에 기 저장되어 있을 수 있으며, 외부 서버(2)를 통하여 전달받아 제어될 수도 있다.The
무인비행체(1)는 정보수신부(15)와 정보송신부(16)를 구비하고 있을 수 있다. 정보송신부(16)는 무인비행체(1)로부터 획득한 정보를 서버(2)로 송신할 수 있다. 그리고 정보수신부(15)는 무인비행체(1)에 필요한 정보를 외부로 수신할 수 있다.The unmanned
서버(2)에는 저장부(21), 보정부(22), 인식부(23), 연산부(24) 및 서버송수신부(25)가 형성될 수 있다.The
저장부(21)는 상기 무인비행체(1)가 촬영한 이미지 정보와 각도 측정 정보를 저장할 수 있다. 저장부(21)는 그 외에 무인비행체(1)가 전송한 모든 정보를 저장할 수도 있다.The
보정부(22)는 상기 이미지 정보를 이미지 변환 기법을 이용하여 왜곡된 이미지를 보정할 수 있다. The
보정부(22)는 무인비행체(1)로부터 직접 또는 저장부(21)로부터 데이터를 전달받아 이미지 정보에서 흘수를 정확히 측정하기 위한 전처리 단계를 수행할 수 있다. The
무인비행체(1)에서 측정되는 이미지 정보는 흘수 마크(110)보다 높은 곳에서 아래를 향하여 측정되고, 따라서 이미지 정보로 바로 흘수 마크(110)와 기준선(120)을 인식하여 연산하는 경우 왜곡된 이미지 정보로 인하여 흘수 값의 정확한 측정이 어려울 수 있다. 그러므로, 정확한 측정을 위하여, 보정부(22)는 이미지 변환 기법을 통하여 왜곡된 부분을 원래 상태로 변환하는 보정을 수행할 수 있다.The image information measured from the unmanned aerial vehicle (1) is measured from a position higher than the draft mark (110) downward, and therefore, if the draft mark (110) and the reference line (120) are recognized and calculated directly using the image information, a distorted image is generated. Information may make it difficult to accurately measure draft values. Therefore, for accurate measurement, the
각도 측정에 따라 보정된 흘수의 값은 실제 흘수 측정에 의한 측정 값 또는 이상적인 측정 값과 차이가 있을 수도 있다. 일반적으로 이 수치는 무시할 수 있다고 볼 수도나, 정확한 보정을 위하여 선박의 전체적인 형태에 대한 모습을 서버(2)의 저장부(21)에 기 저장하여 선박의 형태에 의한 측정 각도의 오차 등을 보완한 후 상기 이미지 정보를 보정할 수도 있다.The value of draft corrected according to angle measurement may differ from the measured value by actual draft measurement or the ideal measured value. In general, this value can be considered negligible, but for accurate correction, the overall shape of the ship is stored in the
일례로, 이미지 변환 기법 중 하나인 원근 변환(Perspective Transform)에 따른 영상 처리 방법을 이용하여 이미지를 변환할 수 있다. 원근 변환이란 원근감을 표현하기 위한 변환으로서 직선의 성질만 유지하게 되는 변환을 나타낸다. 즉, 왜곡된 이미지를 측정할 때, 상기 각도를 측정하여 획득하고, 각도 값을 원근 변환을 위한 변환 행렬에 대입하여 이미지의 모양을 왜곡되지 않은 상태로 변환하는 보완을 수행할 수 있다. 이러한 변환을 통하여 도 4 (a)와 같이, 흘수 마크(110)를 정면에서 촬영한 것과 같은 이미지로 변환될 수 있다.For example, an image can be converted using an image processing method based on perspective transform, which is one of the image conversion techniques. Perspective transformation is a transformation to express perspective and refers to a transformation that maintains only the properties of straight lines. That is, when measuring a distorted image, the angle can be measured and obtained, and the angle value can be substituted into a transformation matrix for perspective transformation to perform correction to transform the shape of the image into an undistorted state. Through this conversion, the
또한, 보정부(22)는 이미지에서 흘수에 대한 정보를 쉽게 얻어내기 위하여 이미지를 가공할 수 있다.Additionally, the
일례로, 이미지 정보에서 글자 및 기준선(120)을 추출하기 위하여 상기 이미지 정보의 문자 및 기준선(120)을 명확하게 변환하는 형태(morphology) 이미지 가공을 수행할 수 있다.For example, in order to extract letters and
이미지 정보를 흑백 변환에 따라 흑백 이미지로 변환하고, 흑백 이미지에서 내부에 존재하는 영역의 경계 이미지를 추출하는 형태적 구배(Morph Gradient)를 수행할 수 있다. 이는 이미지 내에서 픽셀 값이 해당 픽셀의 가까운 이웃 대비 강도를 나타내는 이미지로 변환하는 것이다. 그리고 상기 경계 이미지에 대하여 일정 영역별로 임계값 검출(Adaptive Threshold) 변환과 상기 경계 이미지에 있어서 상기 경계 이미지의 불연속적인 점 또는 선이 존재하는 경우, 상기 점 또는 선을 이어주는 변환(Morph Close)을 수행한다. 그 이후 특정한 조건을 만족하는 불필요한 선을 제거 변환(Long Line Remove)을 수행하는 가공을 수행할 수 있다. Image information can be converted to a black-and-white image according to black-and-white conversion, and morphological gradient (Morph Gradient) can be performed to extract the boundary image of the area existing inside the black-and-white image. This converts the pixel value within the image into an image that represents the intensity of that pixel compared to its nearest neighbors. And, for the boundary image, a threshold detection (Adaptive Threshold) transformation is performed for each certain area, and if there is a discontinuous point or line of the border image in the border image, a transformation (Morph Close) is performed to connect the point or line. do. After that, processing can be performed to remove unnecessary lines that meet specific conditions (Long Line Remove).
보정부(22)가 상기와 같은 변환과 가공을 수행하여 이미지 정보에서 정확한 흘수 마크(110)와 기준선(120)이 인식되고, 불필요한 노이즈가 인식되는 것을 방지할 수 있다.The
그러나 상기와 같은 이미지 변환 및 가공에 한정되지 않고, 하기 인식부(23)를 통하여 이미지 정보에서 문자를 인식하도록 제공하는 모든 변환 및 가공을 수행할 수 있다.However, it is not limited to image conversion and processing as described above, and all conversion and processing provided to recognize characters from image information can be performed through the
인식부(23)는 상기 이미지 가공이 수행된 상태의 이미지 정보에서 흘수 측정을 위한 정보를 인식할 수 있다.The
일례로, 광학 문자 인식(Optical Character Recognition, OCR)을 통하여 흘수 마크(110) 및 흘수 측량의 기준선(120)을 인식할 수 있다. 그러므로, 이미지 정보에 포함된 문자를 획득하기 위하여, 디지털 문자 인식으로 이미지 스캔을 진행하고, 컴퓨터 등에 의하여 처리될 수 있는 형식으로 변환될 수 있다. 이때, 흘수 마크(110)인 문자 이외에 일직선에 가까운 형태의 선인 기준선(120)도 함께 획득될 수 있다.For example, the
그리고, 복수의 지점에서 복수의 이미지를 획득하였다면, 인식된 수를 비교하여 인식이 잘못되었거나 촬영 또는 변환이 잘못되어, 정상적인 정보로 볼 수 없는 정보를 제거할 수 있다. Also, if multiple images are acquired from multiple points, the recognized numbers can be compared to remove information that cannot be viewed as normal information due to incorrect recognition or incorrect capturing or conversion.
예를 들어, 선박의 여섯 지점에서 각 지점마다 다섯번씩 촬영한 이미지 정보가 존재하고, 선박의 첫번째 지점에서 촬영된 다섯개의 이미지 정보에서 인식된 흘수 마크(110) 값이 다른 이미지에서 인식된 값과 크게 다른 값이 있는지 비교하고, 있다면 이를 제거하고 다른 이미지에서 인식된 값만을 도출해서 연산부(24)에 제공할 수 있다. 이러한 비교 및 제거는 모든 지점마다 각각 수행될 수 있다.For example, there is image information taken five times for each point at six points on the ship, and the draft mark (110) value recognized in the five image information taken at the first point of the ship is different from the value recognized in other images. It is possible to compare whether there are significantly different values, remove them if there are any, and derive only the values recognized from other images and provide them to the
연산부(24)는 상기 인식부(23)에서 획득한 상기 기준선(120)과 상기 흘수 마크(110)로 연산할 수 있다. 연산부(24)는 연산을 진행하여 흘수 값을 결과로서 도출한다. 그리고, 상기 이미지 정보를 여러 개 획득하였으므로, 상기 이미지 정보를 통한 흘수 값은 여러 개 획득할 수 있고, 이에 대한 평균 값을 흘수 값으로 도출할 수 있다. The
예를 들면, 선박의 여섯 지점에서 각 지점마다 두번씩 촬영한 이미지 정보가 있다면, 여섯 지점의 첫번째 이미지 정보로 제1 흘수 값이 연산되고, 여섯 지점의 두번째 이미지 정보로 제2 흘수 값이 연산되면, 두개의 흘수 값의 평균을 구하는 것일 수 있다. 그러나 선박의 측정 지점과 촬영 횟수는 상기 언급한 수에 한정되지 않는다. For example, if there is image information taken twice for each point at six points of the ship, the first draft value is calculated using the first image information of the six points, and the second draft value is calculated using the second image information of the six points. , it may be to obtain the average of the two draft values. However, the number of measurement points and shots on board the ship is not limited to the above-mentioned numbers.
서버송수신부(25)는 서버(2)로 무인비행체(1) 등에서 획득한 정보를 수신하고, 서버(2)에 의한 연산된 값을 디스플레이 장치(3)에 송신할 수 있다. 서버(2)는 단지 무인비행체(1)와 디스플레이 장치(3) 이외에 다른 서버(2) 등에 연결될 수 있고, 정보를 송수신할 수 있다.The
디스플레이 장치(3)는 서버(2)에서 도출된 결과를 표시한다. 또는 무인비행체(1)에서 획득한 정보를 표시할 수도 있다.The
이하, 흘수 측정 방법에 있어서, 상기 언급한 흘수 측정방법에서 기재한 내용과 동일한 명칭 및 구성, 효과 등을 갖는 경우, 상기의 기재를 인용하도록 한다. 또한, 도 1 내지 도 4에만 나타난 구성의 도번을 인용하도록 한다.Hereinafter, in the case of the draft measurement method, if it has the same name, composition, effect, etc. as the contents described in the above-mentioned draft measurement method, the above description will be cited. In addition, the drawing numbers of the configurations shown only in FIGS. 1 to 4 will be cited.
도 5는 본 발명의 일 실시예에 따른 흘수 측정 방법에 대한 순서도를 도시한다. 도 6은 본 발명의 다른 실시예에 따른 흘수 측정 방법에 대한 순서도를 도시한다. 도 7은 제2 이미지 처리 단계에 대한 순서도를 도시한다.Figure 5 shows a flow chart for a draft measurement method according to an embodiment of the present invention. Figure 6 shows a flowchart of a draft measurement method according to another embodiment of the present invention. Figure 7 shows a flow chart for the second image processing step.
본 발명의 일 실시예에 따른 흘수 측정 방법은, 정보 획득단계(S100), 보정단계(S200), 인식단계(S300), 계산단계(S500)로 구성될 수 있다.The draft measurement method according to an embodiment of the present invention may be comprised of an information acquisition step (S100), a correction step (S200), a recognition step (S300), and a calculation step (S500).
정보 획득단계(S100)는, 무인비행체(1)가 선박의 흘수 마크(110)를 포함하는 이미지를 촬영하여 이미지 정보를 획득할 수 있다. In the information acquisition step (S100), the unmanned
또한, 선박의 흘수 마크(110)와 기준선(120) 등의 흘수 측정을 위하여 필요한 정보를 이미지 정보로서 획득하는 이미지 촬영단계(S110)와 상기 이미지 정보를 획득하는 위치의 각도를 측정하는 각도 측정단계(S120)를 포함할 수 있다.In addition, an image capturing step (S110) of acquiring the information necessary for measuring the draft, such as the ship's
일례로, 정보 획득단계(S100)는 무인비행체(1)에 의하여 수행될 수 있다. 상기 무인비행체(1)는 촬영부(11)를 구비하고, 복수의 촬영 지점에서 각각 복수의 상기 이미지 정보를 획득할 수 있다. 또한, 상기 이미지 정보의 촬영과 동시 또는 순차적으로 상기 무인비행체(1)의 측정부(12)를 통하여 상기 선박의 기준선(120)의 한 지점과 상기 무인비행체(1)가 상기 이미지 정보를 획득하는 위치의 각도(θ)를 측정할 수 있다.For example, the information acquisition step (S100) may be performed by the unmanned aerial vehicle (1). The unmanned
보정단계(S200)는, 보정부(22)에 의하여 상기 이미지 정보를 이미지 변환 기법을 이용하여 왜곡된 이미지를 보정하는 단계일 수 있다.The correction step (S200) may be a step in which the
보정단계(S200)는, 상기 이미지를 보정부(22)가 전달받고, 보정부(22)가 왜곡된 이미지를 보정하는 제1 이미지 처리단계(S210)와 상기 이미지 정보의 문자 및 기준선(120)을 명확하게 변환하는 제2 이미지 처리단계(S220)를 포함할 수 있다.The correction step (S200) is a first image processing step (S210) in which the
제1 이미지 처리단계(S210)는 보정부(22)가 원근 변환을 수행하여 왜곡된 이미지를 보정하는 단계 일 수 있다.The first image processing step (S210) may be a step in which the
일례로, 상기 각도 측정단계(S120)에서 각도 정보를 이용하여, 원근 변환을 수행한다. 각도 값을 원근 변환을 위한 변환 행렬에 대입하여 이미지의 모양을 왜곡되지 않은 상태로 변환하는 단계일 수 있다.For example, in the angle measurement step (S120), perspective transformation is performed using angle information. This may be a step in which the shape of the image is converted to an undistorted state by substituting the angle value into a transformation matrix for perspective conversion.
제2 이미지 처리단계(S220)는, 이미지 정보에서 흘수 측정을 위해 필요로 하는 흘수 마크(110)와 기준선(120)에 대하여 인식부(23)가 쉽게 인식하도록 변환하는 단계일 수 있다. The second image processing step (S220) may be a step of converting the image information so that the
일례로, 형태 이미지 가공 또는 모폴로지(morphology) 이미지 가공일 수 있다. 상기 제2 이미지 처리단계(S220)는, 상기 이미지를 흑백 변환을 통하여 흑백 이미지로 변환하는 흑백변환의 제2-1 이미지 처리단계(S221)와, 상기 흑백 이미지에 대하여 경계 이미지를 추출하는 형태적 구배(Morph Gradient)에 따른 제2-2 이미지 처리단계(S222)와, 상기 경계 이미지에 대하여 일정 영역별로 임계값 검출(Adaptive Threshold) 변환을 수행하는 제2-3 이미지 처리단계(S223)와, 상기 경계 이미지에 있어서 상기 경계 이미지의 불연속적인 점 또는 선이 존재하는 경우, 상기 점 또는 선을 이어주는 변환(Morph Close)을 수행하는 제2-4 이미지 처리단계(S224) 및 상기 이미지에 있어서 특정 조건을 만족하는 불필요한 선을 제거하는 변환(Long Line Remove)인 제2-5 이미지 처리단계(S225)를 포함할 수 있다.For example, it may be shape image processing or morphology image processing. The second image processing step (S220) includes a 2-1 image processing step of black-and-white conversion (S221) of converting the image into a black-and-white image through black-and-white conversion, and a morphological process of extracting a boundary image from the black-and-white image. A 2-2 image processing step (S222) according to the gradient (Morph Gradient), a 2-3 image processing step (S223) of performing threshold detection (Adaptive Threshold) conversion for each certain area on the boundary image, If there is a discontinuous point or line of the border image in the border image, a 2-4 image processing step (S224) of performing a transformation (Morph Close) connecting the point or line and a specific condition in the image It may include a 2-5 image processing step (S225), which is a transformation (Long Line Remove) that removes unnecessary lines that satisfies .
인식단계(S300)는, 인식부(23)가 보정된 상기 이미지 정보에서 광학 문자 인식을 통하여 흘수 측정에 필요한 흘수 마크(110) 및 흘수 측량의 기준선(120)을 인식하는 단계이다.The recognition step (S300) is a step in which the
계산단계(S500)는, 연산부(24)가 상기 흘수 마크(110) 및 기준선(120)으로 흘수를 연산하는 단계이다. The calculation step (S500) is a step in which the
일례로서, 계산단계(S500)에 있어서, 상기 무인비행체(1)의 촬영부(11)가 복수의 촬영 지점에서 각각 복수의 상기 이미지 정보를 획득할 수 있고, 각각의 촬영 지점에 따른 인식된 흘수 마크(110) 및 측량 기준선(120)으로 평균을 계산한 후에 흘수 값을 연산할 수 있다.As an example, in the calculation step (S500), the photographing unit 11 of the
그리고, 연산부(24)에 의하여 획득된 흘수 값을 디스플레이 장치(3)에 표시하는 표시단계(미도시)를 더 포함하고 있을 수도 있다.In addition, a display step (not shown) of displaying the draft value obtained by the
본 발명의 또다른 실시예에 따르면, 상기 무인비행체(1)의 촬영부(11)가 복수의 촬영 지점에서 각각 복수의 상기 이미지 정보를 획득할 수 있고, 상기 복수의 이미지 정보에 대하여 상기 보정단계(S200) 내지 상기 계산단계(S500)를 수행할 수 있다. 이 때, 연산부(24)는 계산단계(S500)에서 연산 전 평균 값을 계산하지 않아야 한다. According to another embodiment of the present invention, the photographing unit 11 of the
연산부(24)는 상기 계산단계(S500) 이후에, 상기 복수의 이미지 정보에서 계산된 상기 흘수에 대한 평균을 연산하는 평균단계(S600)를 더 포함할 수 있다.After the calculation step (S500), the
일례로, 복수의 촬영 지점에서 획득된 복수의 이미지 정보는, 복수의 촬영 지점에서 획득된 하나의 이미지로 구분하여 세트 정보로서, 복수의 세트 정보가 될 수 있다. 예를 들어 제1 지점내지 제6 지점에서 촬영되고, 각 지점마다 세번씩 촬영되었다면, 제1 지점 내지 제6 지점에서 촬영된 첫번째 이미지 정보가 하나의 세트를 구성하고, 두번째 이미지 정보들이 또 다른 하나의 세트를 구성하고, 세번째 이미지 정보들이 마지막 세트를 구성하는 방식을 예로 들 수 있다. 이 경우에 하나의 세트당 하나의 흘수 값이 측정되고, 세 세트의 평균으로 흘수 값을 도출할 수 있다.For example, a plurality of image information acquired from a plurality of shooting points can be divided into one image acquired from a plurality of shooting points and become a plurality of set information. For example, if images are taken from
평균 방식을 이용하여 연산된 흘수 값의 실제 흘수 값과 오차를 줄일 수 있는 효과를 제공한다.It provides the effect of reducing the error between the actual draft value and the calculated draft value using the average method.
본 발명의 또다른 실시예로서, 평균단계(S600)와 마찬가지로, 정확도를 높이기 위해 상기 인식단계(S300)와 계산단계(S500)의 사이에 비교단계(S400)를 더 포함할 수 있다.As another embodiment of the present invention, like the averaging step (S600), a comparison step (S400) may be further included between the recognition step (S300) and the calculation step (S500) to increase accuracy.
비교단계(S400)는, 상기 계산단계(S500) 이전에, 상기 인식단계(S300)에서 각각의 상기 촬영 지점의 복수의 상기 이미지 정보에서 획득된 상기 흘수 마크(110)의 문자에 대하여 비교하여 유의미한 문자를 확인하는 단계일 수 있다. The comparison step (S400), before the calculation step (S500), compares the characters of the
예를 들어 제1 지점내지 제6 지점에서 촬영되고, 각 지점마다 다섯번씩 촬영되었다면, 각 지점의 다섯개의 이미지에서 인식된 흘수 마크(110)와 기준선(120)의 정보를 각각 비교하여 일정한 범위를 벗어나는 데이터가 인식된 경우 제거하거나, 가장 큰 값과 가장 작은 값을 제거하여 사용하는 등의 방식을 고려할 수 있다.For example, if images were taken at
상기의 예에 따른 촬영 회수에 제한되지 않고, 촬영 횟수를 높일수록 그 정확도는 증가할 수 있다.The number of shots according to the above example is not limited, and the accuracy may increase as the number of shots increases.
오류에 의한 데이터 인식을 방지하고, 촬영 또는 각도 측정이 잘못된 경우에 발생하는 오차 등을 제거하여 흘수 값의 정확도를 높이는 효과를 제공한다. 상기 비교단계(S400)와 평균단계(S600)가 모두 수행될 수도 있다.It prevents data recognition due to errors and improves the accuracy of draft values by eliminating errors that occur when shooting or angle measurement is incorrect. Both the comparison step (S400) and the averaging step (S600) may be performed.
본 발명과 같은 흘수 측정 방법에 따라, 직접 사람이 전마선 등을 이용하여 선박에 가까이 가지 않고 측정 가능하며, 수면이 날씨에 의하여 불안정하였을 때 측정이 어려운 점 등의 직접 사람이 측정했을 때의 어려움을 방지할 수 있다. 그리고, 무인비행체가 이미지 정보를 여러 번 촬영하여 흘수 값의 정확도를 높이는 효과를 제공한다.According to the method of measuring draft such as the present invention, it is possible for a person to measure the draft without going close to the ship using an electric wire, etc., and it is possible to avoid the difficulties of measuring it directly by a person, such as difficulty in measuring when the water surface is unstable due to weather. It can be prevented. Additionally, the unmanned aerial vehicle captures image information multiple times, providing the effect of increasing the accuracy of the draft value.
이상에서는 본 발명을 실시예를 중심으로 설명하였지만, 본 발명은 상술한 실시예에 한정되지 않으며, 청구범위에서 청구되는 본 발명의 기술적 사상의 변화 없이 통상의 기술자에 의해서 변형되어 실시될 수 있음은 물론이다.In the above, the present invention has been described focusing on the embodiments, but the present invention is not limited to the above-described embodiments, and may be modified and implemented by those skilled in the art without changing the technical spirit of the present invention as claimed in the claims. Of course.
1: 무인비행체
2: 서버
3: 디스플레이장치
11: 촬영부
12: 측정부
13: 레코더부
14: 제어부
15: 정보수신부
16: 정보송신부
21: 저장부
22: 보정부
23: 인식부
24: 연산부
25: 서버송수신부
S100: 정보 획득단계
S110: 이미지 촬영단계
S120: 각도 측정단계
S200: 보정단계
S210: 제1 이미지 처리단계
S220: 제2 이미지 처리단계
S300: 인식단계
S400: 비교단계
S500: 계산단계
S600: 평균단계
1: Unmanned aerial vehicle 2: Server
3: Display device
11: imaging unit 12: measuring unit
13: recorder section 14: control section
15: Information reception unit 16: Information transmission unit
21: storage unit 22: correction unit
23: recognition unit 24: calculation unit
25: Server transceiver
S100: Information acquisition step S110: Image shooting step
S120: Angle measurement step S200: Correction step
S210: First image processing step S220: Second image processing step
S300: Recognition step S400: Comparison step
S500: Calculation step S600: Average step
Claims (11)
상기 이미지 정보를 이미지 변환 기법을 이용하여 왜곡된 이미지를 보정하는 보정단계;
보정된 상기 이미지 정보에서 흘수 마크 및 흘수 측량의 기준선을 광학 문자 인식(Optical Character Recognition, OCR)을 통하여 인식하는 인식단계; 및
상기 흘수 마크 및 기준선으로 흘수를 연산하는 계산단계;를 포함하는 흘수 측정 방법.
An information acquisition step of acquiring image information by photographing an image including a ship's draft mark;
A correction step of correcting a distorted image using the image information using an image conversion technique;
A recognition step of recognizing the draft mark and the baseline of the draft survey from the corrected image information through optical character recognition (OCR); and
A draft measurement method including a calculation step of calculating the draft using the draft mark and reference line.
상기 정보 획득단계는,
무인비행체의 촬영부가 복수의 촬영 지점에서 각각 복수의 상기 이미지 정보를 획득하는 이미지 촬영단계를 포함하고,
상기 계산단계 이후에,
상기 보정단계 내지 상기 계산단계가 수행된 상기 복수의 이미지 정보에서 계산된 상기 흘수의 평균 값을 연산하는 평균단계;를 더 포함하는 흘수 측정 방법.
According to paragraph 1,
The information acquisition step is,
An image capturing step in which the capturing unit of the unmanned aerial vehicle acquires a plurality of the image information at each of a plurality of capturing points,
After the above calculation step,
A draft measurement method further comprising: an averaging step of calculating an average value of the draft calculated from the plurality of image information on which the correction step or the calculation step was performed.
상기 획득단계에 있어서,
상기 무인비행체에 구비된 측정부를 통하여 상기 기준선의 한 지점과 상기 무인비행체가 상기 이미지 정보를 획득하는 위치의 각도를 측정하는 각도 측정단계;를 더 포함하고,
상기 보정단계에 있어서, 상기 이미지 변환 기법은 원근 변환으로서 상기 각도를 이용하여 보정하는 제1 이미지 처리단계를 포함하는 흘수 측정 방법.
According to paragraph 2,
In the acquisition step,
It further includes an angle measuring step of measuring the angle between a point of the reference line and a position at which the unmanned aerial vehicle acquires the image information through a measuring unit provided in the unmanned aerial vehicle,
In the correction step, the image conversion technique is a draft measurement method including a first image processing step of correcting using the angle as perspective conversion.
상기 제1 이미지 처리단계 이후에,
상기 이미지 정보의 문자 및 기준선을 명확하게 변환하는 제2 이미지 처리단계를 더 포함하는 흘수 측정 방법.
According to paragraph 3,
After the first image processing step,
A draft measurement method further comprising a second image processing step of clearly converting the characters and baseline of the image information.
상기 제2 이미지 처리단계는,
상기 이미지를 흑백 변환을 통하여 흑백 이미지로 변환하는 제2-1 이미지 처리단계;
상기 흑백 이미지에 대하여 경계 이미지를 추출하는 제2-2 이미지 처리단계;
상기 경계 이미지에 대하여 일정 영역별로 임계값 검출(Adaptive Threshold) 변환을 수행하는 제2-3 이미지 처리단계;
상기 경계 이미지에 있어서 상기 경계 이미지의 불연속적인 점 또는 선이 존재하는 경우, 상기 점 또는 선을 이어주는 변환을 수행하는 제2-4 이미지 처리단계; 및
상기 이미지에 있어서 특정 조건을 만족하는 불필요한 선을 제거하는 제2-5 이미지 처리단계;를 포함하는 흘수 측정 방법.
According to clause 4,
The second image processing step is,
A 2-1 image processing step of converting the image into a black and white image through black and white conversion;
A 2-2 image processing step of extracting a boundary image from the black and white image;
A 2-3 image processing step of performing adaptive threshold conversion for each predetermined area on the boundary image;
If there are discontinuous points or lines in the border image, a 2-4 image processing step of performing transformation to connect the points or lines; and
A 2-5 image processing step of removing unnecessary lines that satisfy specific conditions in the image.
상기 무인비행체는 상기 선박의 촬영 지점에서 촬영하고, 복수의 상기 촬영 지점마다 복수의 상기 이미지 정보를 획득하며,
상기 계산단계 이전에, 상기 인식단계에서 각각의 상기 촬영 지점의 복수의 상기 이미지 정보에서 획득된 상기 흘수 마크의 문자에 대하여 비교하여 유의미한 문자를 확인하는 비교단계;를 더 포함하는 흘수 측정 방법.
According to clause 5,
The unmanned aerial vehicle captures images from the photographing points of the ship and acquires a plurality of image information for each of the plurality of photographing points,
Before the calculation step, a comparison step of confirming significant characters by comparing them with the characters of the draft mark obtained from the plurality of image information of each of the photographing points in the recognition step. A draft measurement method further comprising a.
상기 보정부에서 이미지 가공이 수행된 상기 이미지 정보에서 광학 문자 인식을 통하여 상기 기준선과 상기 흘수 마크를 인식하는 인식부와,
상기 인식부에서 획득한 상기 기준선과 상기 흘수 마크로 흘수를 연산하는 연산부를 포함하는 흘수 측정 시스템.
The distorted information of the image information obtained by photographing the baseline and draft mark for measuring the draft of the ship is converted using an image conversion technique, and morphology image processing is performed to extract letters and baselines from the image information. correction department,
a recognition unit that recognizes the reference line and the draft mark through optical character recognition in the image information on which image processing has been performed in the correction unit;
A draft measurement system including a calculation unit that calculates the draft using the reference line and the draft mark obtained from the recognition unit.
상기 이미지 정보는 무인비행체에 의하여 획득되고,
상기 무인비행체는,
상기 이미지 정보를 촬영하는 촬영부와, 상기 이미지 정보를 촬영하는 지점과 실제 측정이 되어야하는 지점의 각도를 측정하기 위하여 레이더를 발사하는 측정부를 포함하는 흘수 측정 시스템.
In clause 7,
The image information is acquired by an unmanned aerial vehicle,
The unmanned aerial vehicle,
A draft measurement system comprising a photographing unit that photographs the image information, and a measuring portion that fires a radar to measure the angle between the point where the image information is photographed and the point that should actually be measured.
상기 측정부는,
촬영 지점에서 수면과 평행한 제1 방향으로의 상기 선박까지 길이인 제1 길이와 상기 수면과 수직한 제2 방향으로의 상기 수면까지의 길이인 제2 길이를 측정하여, 상기 촬영 지점에서 상기 기준선이 제1 방향 또는 제2 방향과 이루는 각도를 측정하고,
상기 각도를 이용하여 상기 보정부에서 왜곡된 상기 이미지를 변환하는 것을 특징으로 하는 흘수 측정 시스템.
According to clause 8,
The measuring unit,
A first length, which is the length from the photographing point to the ship in a first direction parallel to the water surface, and a second length, which is the length from the photographing point to the water surface in a second direction perpendicular to the water surface, are measured, and the reference line is measured at the photographing point. Measure the angle formed with this first or second direction,
A draft measurement system, characterized in that the distorted image is converted in the correction unit using the angle.
상기 연산부에서 연산된 결과를 표시하는 디스플레이 장치를 더 포함하는 흘수 측정 시스템.
In clause 7,
A draft measurement system further comprising a display device that displays results calculated by the calculation unit.
상기 무인비행체는,
상기 이미지 정보와 상기 각도에 대하여 측정 값을 저장하는 레코더부를 더 포함하는 흘수 측정 시스템.
According to clause 8,
The unmanned aerial vehicle,
A draft measurement system further comprising a recorder unit that stores measured values for the image information and the angle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220141664A KR20240060263A (en) | 2022-10-28 | 2022-10-28 | Draft Measurement System and Draft Measuring Method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220141664A KR20240060263A (en) | 2022-10-28 | 2022-10-28 | Draft Measurement System and Draft Measuring Method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240060263A true KR20240060263A (en) | 2024-05-08 |
Family
ID=91074137
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220141664A KR20240060263A (en) | 2022-10-28 | 2022-10-28 | Draft Measurement System and Draft Measuring Method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240060263A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190019336A (en) | 2017-08-17 | 2019-02-27 | 대우조선해양 주식회사 | Measurement and control device of ship water line |
-
2022
- 2022-10-28 KR KR1020220141664A patent/KR20240060263A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190019336A (en) | 2017-08-17 | 2019-02-27 | 대우조선해양 주식회사 | Measurement and control device of ship water line |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107203222B (en) | Method for realizing ship water gauge image and video shooting by unmanned aerial vehicle | |
CN105678689B (en) | High-precision map data registration relation determining method and device | |
CN110866871A (en) | Text image correction method and device, computer equipment and storage medium | |
CN111476120B (en) | Unmanned aerial vehicle intelligent ship water gauge identification method and device | |
KR102345873B1 (en) | The method and System of Wave Observation Using Camera Module for Ocean Observation Buoy | |
CN111028154A (en) | Rough-terrain seabed side-scan sonar image matching and splicing method | |
CN110712720A (en) | System for measuring draught of ship and using method thereof | |
CN110675341B (en) | Monocular-vision-guided underwater robot and seabed platform butt joint method | |
CN110717924A (en) | Ship water gauge marking recognition method and device, computer equipment and storage medium | |
CN112101222A (en) | Sea surface three-dimensional target detection method based on unmanned ship multi-mode sensor | |
CN112614177A (en) | Sea ice thickness identification system and method suitable for ship ice area sailing test | |
CN112347827A (en) | Automatic detection method and system for ship water gauge | |
Paccaud et al. | Obstacle detection for lake-deployed autonomous surface vehicles using RGB imagery | |
KR20240060263A (en) | Draft Measurement System and Draft Measuring Method | |
CN116682286B (en) | Ship early warning method and system based on offshore target detection | |
CN116597447A (en) | Unmanned aerial vehicle image recognition-based ship berthing draft detection and early warning method | |
Sumimoto et al. | Machine vision for detection of the rescue target in the marine casualty | |
CA3237725A1 (en) | Systems and methods for draft calculation | |
Ivanovskii | The Concept of Automated Draught Survey System for Marine Ships | |
CN118262361A (en) | Ship load water gauge identification method, system, electronic equipment and storage medium | |
JP7270537B2 (en) | Object detection device, ship, and object detection method | |
CN110968722A (en) | Platform identification and measurement method for autonomous landing of unmanned aerial vehicle | |
Huillca et al. | Computing vessel velocity from single perspective projection images | |
KR20140033597A (en) | Draft measuring method | |
CN118038472A (en) | Ship water gauge intelligent identification method based on machine vision and deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |