KR20230051012A - Management system of lighters wharf - Google Patents

Management system of lighters wharf Download PDF

Info

Publication number
KR20230051012A
KR20230051012A KR1020210134497A KR20210134497A KR20230051012A KR 20230051012 A KR20230051012 A KR 20230051012A KR 1020210134497 A KR1020210134497 A KR 1020210134497A KR 20210134497 A KR20210134497 A KR 20210134497A KR 20230051012 A KR20230051012 A KR 20230051012A
Authority
KR
South Korea
Prior art keywords
vessel
ship
information
image
unit
Prior art date
Application number
KR1020210134497A
Other languages
Korean (ko)
Inventor
서용욱
김상우
이영돈
조희정
Original Assignee
주식회사 서안에스앤씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 서안에스앤씨 filed Critical 주식회사 서안에스앤씨
Priority to KR1020210134497A priority Critical patent/KR20230051012A/en
Publication of KR20230051012A publication Critical patent/KR20230051012A/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G3/00Traffic control systems for marine craft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Ocean & Marine Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

A lighters wharf management system is disclosed. According to one embodiment of the present invention, the lighters wharf management system may comprise: a vessel identification unit which detects an image of a vessel by receiving and analyzing real-time captured images from a photography unit installed at the entrance to the lighters wharf; a location information acquisition unit which receives location information of the vessel from an automatic vessel identification device or a fishing vessel location transmission device mounted on the vessel; a database which stores information matching the image of the vessel and the location information of the vessel, information of the detected vessel, and the image of the vessel; and a monitoring unit which checks and monitors arrival/departure information and berthing information of the vessel from the database, loads and checks the information of the vessel stored in the database, and analyzes event information of the vessel. The monitoring unit may be configured to: receive map data from a map server where the map data of the lighters wharf is stored; display the image of the vessel at a point on the map data corresponding to the final position of the vessel received from the location information acquisition unit; and load and display the information of the vessel on a display when the image of the vessel is clicked. According to the present invention, the lighters wharf management system can automatically identify and manage vessels arriving and departing from the lighters wharf.

Description

물양장 관리 시스템{MANAGEMENT SYSTEM OF LIGHTERS WHARF}Fish farm management system {MANAGEMENT SYSTEM OF LIGHTERS WHARF}

본 발명은 물양장 관리 시스템에 관한 것으로서, 보다 상세하게는 물양장의 입출항 선박을 자동으로 식별하고 관리할 수 있는 물양장 관리 시스템에 관한 것이다.The present invention relates to a wharf management system, and more particularly, to a wharf management system capable of automatically identifying and managing vessels entering and leaving the wharf.

일반적으로 물양장이란 소형선박이 접안하여 계류하는 안벽 구조물로서 항만에서는 전면수심이 4.5m 미만, 어항에서는 2.5m 이내인 부두를 의미한다.In general, a water wharf is a quay structure in which small ships dock and moor, and means a pier with a front water depth of less than 4.5 m in a port and less than 2.5 m in a fishing port.

물양장 사용을 위해서는 사용요금을 납부하여야 하나 관리시스템의 부재로 허가 받지 않은 선박의 출입이 있어도 파악이 불가능한 문제점이 있다.In order to use the water wharf, a user fee must be paid, but there is a problem that it is impossible to grasp even if there is an unauthorized vessel entering or exiting due to the absence of a management system.

부산항만공사에서 관리 중인 물양장의 경우 물양장 당 일일 평균 50~100대의 선박이 출입하며 태풍 등의 재난상황 시 600여대의 선박이 정박한다. 다수의 선박들이 출입함에도 불구하고 현재 선주 신고정보를 기준으로 수기관리 중이며, 무단사용 및 미허가 입출항 선박 등에 대해서는 실시간 관리가 어려운 상황이다.In the case of a fishery managed by the Busan Port Authority, an average of 50 to 100 ships enter and exit per day per fishery, and about 600 ships are anchored in disaster situations such as typhoons. Despite the fact that many vessels enter and exit, it is currently being managed manually based on the information reported by the owner, and real-time management is difficult for unauthorized use and unauthorized entry and departure.

이에 따라 사용료 부과·징수 등 관리가 곤란하고,선박 입출항 및 계류 상황 파악 역시 어려운 문제점이 있다.As a result, management such as imposition and collection of usage fees is difficult, and it is also difficult to grasp the ship's arrival and departure and mooring conditions.

이에 따라, 선박 간 충돌 등의 사고 시 빠른 대응 조치를 위해 해당 선박과 타 정박 선박의 정보를 파악 하여야 하나, 파악 할 수가 없어 2차 사고 위험성이 증가하는 문제점이 있다.Accordingly, in order to quickly respond to an accident such as a collision between ships, it is necessary to grasp the information of the vessel and other anchored vessels, but there is a problem in that the risk of secondary accidents increases because it cannot be grasped.

또한 폐선과 장기 방치선박으로 인한 환경오염 및 항로 위협 발생할 수 있는데, 관리 시스템의 부재로 인해 방치 선박의 증명이 어려운 문제점이 있다.In addition, environmental pollution and route threats may occur due to abandoned ships and long-term abandoned ships, and there is a problem in that it is difficult to prove abandoned ships due to the absence of a management system.

대한민국 등록특허 제10-2137380호(2020.07.20) "스마트 항만 관리 시스템"Republic of Korea Patent Registration No. 10-2137380 (2020.07.20) "Smart Port Management System" 대한민국 등록특허 제10-2206662호(2021.01.18) "항만 컨테이너 터미널에서 차량 출입 관리와 객체를 인식하는 비전 카메라 시스템 및 방법"Republic of Korea Patent Registration No. 10-2206662 (2021.01.18) "Vision camera system and method for vehicle access management and object recognition at a port container terminal" 대한민국 등록특허 제10-2096746호(2020.03.27) "항만보안을 위한 블록체인 기반 출입관리 시스템 및 방법"Korean Registered Patent No. 10-2096746 (2020.03.27) "Blockchain-based access control system and method for port security"

본 발명에 따른 물양장 관리 시스템은, 물양장의 입출항 선박을 자동으로 식별하고 관리할 수 있는 물양장 관리 시스템을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a wharf management system capable of automatically identifying and managing vessels entering and leaving the wharf.

본 발명에 따른 물양장 관리 시스템은, CCTV 카메라로 물양장의 입구 측을 촬영하는 실시간 촬영영상으로부터 딥러닝을 통해 선박을 검출하고, 위치정보 획득부를 통해 획득한 선박의 위치정보와 선박정보를 매칭하여 물양장의 입출항 선박을 관리하는 물양장 관리 시스템을 제공하는 것을 목적으로 한다.The fish farm management system according to the present invention detects a ship through deep learning from a real-time video taken at the entrance of the fish farm by a CCTV camera, and matches the location information of the ship and the ship information obtained through the location information acquisition unit to the fish farm. Its purpose is to provide a waterfront management system that manages the arrival and departure of ships.

본 발명의 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The tasks of the present invention are not limited to the technical tasks mentioned above, and other technical tasks not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시예에 따른 물양장 관리 시스템은, 물양장의 입구 측에 설치되는 촬영부로부터 실시간 촬영 영상을 수신 및 분석하여 선박 이미지를 검출하는 선박 식별부; 선박에 장착된 선박자동식별장치 또는 어선위치발신장치로부터 선박의 위치정보를 수신하는 위치정보 획득부; 상기 선박 이미지와 상기 선박의 위치정보가 매칭된 정보와, 검지된 상기 선박의 정보를 저장하고, 상기 선박 이미지를 저장하는 데이터베이스; 및 상기 데이터베이스로부터 상기 선박의 입출항 정보, 정박 정보를 확인하여 모니터링하며, 상기 데이터베이스에 저장된 상기 선박의 정보를 로딩하여 확인 가능하며, 상기 선박의 이벤트 정보를 분석하는 모니터링부;를 포함하며, 상기 모니터링부는, 물양장의 지도 데이터가 저장되는 지도 서버로부터 상기 지도 데이터를 수신하고, 상기 위치정보 획득부로부터 수신한 선박의 최종 위치와 대응되는 상기 지도 데이터 상의 지점에 상기 선박 이미지를 표시하며, 상기 선박 이미지를 클릭 시 상기 선박의 정보를 로딩하여 디스플레이 상에 표시할 수 있다.A fishery management system according to an embodiment of the present invention includes: a ship identification unit for detecting a ship image by receiving and analyzing a real-time captured image from a photographing unit installed at the entrance of a fishery; A location information acquisition unit for receiving location information of a ship from an automatic vessel identification device or a fishing vessel location transmitter mounted on the vessel; a database for storing information in which the ship image and location information of the ship are matched and information of the detected ship, and storing the ship image; and a monitoring unit that checks and monitors the vessel's arrival and departure information and anchoring information from the database, loads and checks the vessel information stored in the database, and analyzes the vessel's event information. The unit receives the map data from the map server where the map data of the fishery is stored, displays the ship image at a point on the map data corresponding to the final position of the ship received from the location information acquisition unit, and displays the ship image When is clicked, information on the vessel may be loaded and displayed on the display.

여기서, 상기 선박자동식별장치 또는 어선위치발신장치로부터 선박의 위치정보가 수신되지 않는 경우, 상기 촬영 영상을 분석하여 선박에 표시된 문자를 인식하여 선박명을 인지하는 문자 인식부; 상기 촬영부의 촬영 지점 상의 좌표를 획득하는 드론;을 더 포함하며, 상기 모니터링부는 상기 드론으로부터 상기 촬영 지점의 좌표 정보를 수신할 수 있다.Here, when the location information of the ship is not received from the automatic vessel identification device or the fishing vessel location transmitter, a character recognition unit for recognizing the ship name by analyzing the captured image and recognizing characters displayed on the ship; The drone may further include a drone that obtains coordinates of the photographing point of the photographing unit, and the monitoring unit may receive coordinate information of the photographing point from the drone.

여기서, 상기 선박 식별부는, 딥러닝 알고리즘을 사용하여 영상 분석을 통해 선박 이미지를 검출하며, 상기 딥러닝 알고리즘을 통해 발생되는 데이터는 이미지 파일 형태로 상기 데이터베이스에 저장될 수 있다.Here, the ship identification unit detects a ship image through image analysis using a deep learning algorithm, and data generated through the deep learning algorithm may be stored in the database in the form of an image file.

여기서, 상기 문자 인식부는, 복수 대의 상기 촬영부의 촬영 영상을 각각 서로 다른 배율로 확대하여 분석하며, 상기 선박에 표시된 문자가 데이터 라벨링된 자료가 저장될 수 있다.Here, the character recognition unit enlarges and analyzes images captured by a plurality of the photographing units at different magnifications, and data labeled with characters displayed on the ship may be stored.

여기서, 상기 모니터링부는, 상기 지도 데이터를 수신하여 물양장 지도 데이터를 로딩하는 단계; 상기 촬영부 설치 위치에 대응되는 영역에 카메라 아이콘을 표시하는 단계; 선박위치 갱신 스레드와 미등록 선박 확인 스레드를 생성하는 단계;를 수행하며, 상기 선박위치 갱신 스레드 실행 시 상기 위치정보 획득부로부터 수신한 선박의 최종 위치와 대응되는 상기 지도 데이터 상의 지점에 상기 선박 이미지를 표시하며, 상기 미등록 선박 확인 스레드 실행 시 미등록 선박의 접근 정보를 표시하며, 상기 선박 이미지를 클릭 시 상기 선박의 정보를 로딩하여 당시 디스플레이 상에 표시할 수 있다.Here, the monitoring unit receives the map data and loads fish farm map data; displaying a camera icon in an area corresponding to the installation location of the photographing unit; generating a ship location update thread and an unregistered ship confirmation thread; and when the ship location update thread is executed, the ship image is displayed at a point on the map data corresponding to the final location of the ship received from the location information acquisition unit. When the unregistered vessel confirmation thread is executed, access information of the unregistered vessel is displayed, and when the vessel image is clicked, the vessel information can be loaded and displayed on the display at that time.

여기서, 상기 모니터링부는, 상기 위치정보 획득부로부터 수신된 정보를 기반으로 상기 촬영 영상에 선박을 표시하는 이미지와 상기 선박의 정보를 오버레이할 수 있다.Here, the monitoring unit may overlay an image displaying a vessel and information of the vessel on the captured image based on the information received from the location information obtaining unit.

본 발명의 실시예들에 의하면 적어도 다음과 같은 효과가 있다.According to embodiments of the present invention, at least the following effects are provided.

본 발명에 따른 물양장 관리 시스템은 물양장의 입출항 선박을 자동으로 식별하고 관리할 수 있다.The wharf management system according to the present invention can automatically identify and manage vessels entering and leaving the wharf.

또한, 선박 식별부를 통해 촬영부의 촬영 영상에서의 객체가 선박인지 여부를 감지하고, 위치정보 획득부로부터 선박의 위치를 확인함으로써 선박의 입출항을 관리할 수 있다.In addition, it is possible to manage the arrival and departure of the ship by detecting whether or not the object in the captured image of the photographing unit is a ship through the ship identification unit and confirming the location of the ship from the location information acquisition unit.

또한, 선박 식별부가 딥러닝 알고리즘을 사용하여 영상 분석을 통해 발생되는 데이터는 이미지 파일 형태로 데이터베이스에 저장되고, 이는 다시 촬영부인 CCTV의 영상 분석을 위한 데이터셋으로 활용됨으로써 보다 정확하게 선박을 식별할 수 있다.In addition, the data generated through video analysis by the ship identification unit using a deep learning algorithm is stored in the database in the form of an image file, which is then used as a dataset for video analysis by CCTV, which is the shooting unit, so that the ship can be more accurately identified. there is.

또한, 지도 데이터 상에 선박의 위치가 선박 이미지로 표시되고, 선박 이미지를 클릭 시 위치정보 획득부로부터 수신한 선박 정보가 표시됨으로써 용이하게 모니터링을 할 수 있다.In addition, the location of the ship is displayed as a ship image on the map data, and when the ship image is clicked, the ship information received from the location information acquisition unit is displayed, so monitoring can be easily performed.

또한, 촬영부가 촬영하는 실시간 영상에 위치정보 획득부로부터 수신한 선박 정보와 선박을 표시하는 이미지가 오버레이 됨으로써 실시간으로 선박을 용이하게 모니터링할 수 있다.In addition, the vessel information received from the location information acquisition unit and the image displaying the vessel are overlaid on the real-time image captured by the photographing unit, so that the vessel can be easily monitored in real time.

또한, 위치정보 획득부가 없는 선박의 경우에도 문자 인식부를 통해 선박명 등의 정보를 확인할 수 있다.In addition, even in the case of a ship without a location information acquisition unit, information such as a ship name can be checked through a text recognition unit.

본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.Effects according to the present invention are not limited by the contents exemplified above, and more various effects are included in the present specification.

도 1은 본 발명의 제1실시예에 따른 물양장 관리 시스템의 장치도
도 2는 본 발명의 제1실시예에 따른 물양장 관리 시스템의 선박 식별부의 관계도
도 3 내지 도 5는 본 발명의 제1실시예에 따른 물양장 관리 시스템의 모니터링부의 모니터링 화면 예시
도 6은 본 발명의 제1실시예에 따른 물양장 관리 시스템의 모니터링부의 모니터링 순서도
도 7은 본 발명의 제1실시예에 따른 물양장 관리 시스템의 모니터링부의 생성단계 알고리즘
도 8은 본 발명의 제2실시예에 따른 물양장 관리 시스템의 장치도이다.
1 is a device diagram of a fishery management system according to a first embodiment of the present invention
2 is a relationship diagram of a vessel identification unit of a waterfront management system according to a first embodiment of the present invention
3 to 5 are examples of monitoring screens of the monitoring unit of the watershed management system according to the first embodiment of the present invention.
6 is a monitoring flow chart of the monitoring unit of the fishery management system according to the first embodiment of the present invention
7 is a generating step algorithm of the monitoring unit of the fishery management system according to the first embodiment of the present invention.
8 is a device diagram of a fish farm management system according to a second embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예를 도면에 예시하고 이에 대해 상세한 설명에 상세하게 설명한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예를 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Since the present invention can apply various transformations and have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. Effects and features of the present invention, and methods for achieving them will become clear with reference to the embodiments described later in detail together with the drawings. However, it should be understood that the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms, and includes all modifications, equivalents, and substitutes included in the spirit and technical scope of the present invention.

설명에 앞서 상세한 설명에 기재된 용어에 대해 설명한다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, '포함하다' 또는 '가지다' 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. Prior to the description, the terms described in the detailed description will be described. In the following embodiments, terms such as first and second are used for the purpose of distinguishing one component from another component without limiting meaning. Accordingly, it goes without saying that the first element mentioned below may also be the second element within the technical spirit of the present invention. Also, expressions in the singular number include plural expressions unless the context clearly dictates otherwise. In addition, terms such as 'include' or 'have' mean that features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and that one or more other features or components are present. It does not preclude the possibility of being added.

또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.In addition, in the drawings, the size of components may be exaggerated or reduced for convenience of explanation. For example, since the size and thickness of each component shown in the drawings are arbitrarily shown for convenience of description, the present invention is not necessarily limited to the illustrated bar.

이하, 본 발명에 따른 실시예를 첨부된 도면을 참조하여 상세히 설명한다. 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성요소는 동일한 도면 부호를 부여하고 이에 대해 중복되는 설명은 생략한다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, the same or corresponding components are assigned the same reference numerals, and overlapping descriptions thereof will be omitted.

본 발명의 실시예에 따른 물양장 관리 시스템은, CCTV 카메라로 물양장의 입구 측을 촬영하는 실시간 촬영영상으로부터 딥러닝을 통해 선박을 검출하고, 위치정보 획득부를 통해 획득한 선박의 위치정보와 선박정보를 매칭하여 물양장의 입출항 선박을 관리하는 물양장 관리 시스템에 관한 것이다.In the wharf management system according to an embodiment of the present invention, a ship is detected through deep learning from a real-time video taken at the entrance of the wharf with a CCTV camera, and the ship's location information and ship information obtained through the location information acquisition unit are used. It is about a wharf management system that manages ships entering and leaving the wharf by matching.

도 1은 본 발명의 제1실시예에 따른 물양장 관리 시스템의 장치도이며, 도 2는 본 발명의 제1실시예에 따른 물양장 관리 시스템의 선박 식별부의 관계도이다.1 is a device diagram of a watershed management system according to a first embodiment of the present invention, and FIG. 2 is a relationship diagram of a vessel identification unit of the watershed management system according to a first embodiment of the present invention.

본 발명의 제1실시예에 따른 물양장 관리 시스템(1000)은, 선박 식별부(100)와, 위치정보 획득부(200)와, 데이터베이스(300) 및 모니터링부(400)를 포함한다.The watershed management system 1000 according to the first embodiment of the present invention includes a vessel identification unit 100, a location information acquisition unit 200, a database 300, and a monitoring unit 400.

선박 식별부(100)는 물양장의 입구 측에 설치되는 촬영부(10)로부터 실시간 촬영 영상을 수신 및 분석하여 선박 이미지를 검출하는 구성이다. 본 실시예에서 촬영부(10)는 CCTV 카메라로 마련되어 입출항하는 선박들을 촬영한다.The vessel identification unit 100 is a component that detects a vessel image by receiving and analyzing a real-time captured image from the photographing unit 10 installed at the entrance of the watershed. In this embodiment, the photographing unit 10 is provided as a CCTV camera to photograph ships arriving and departing.

선박 식별부(100)는 CCTV 카메라로부터 촬영 영상을 RTSP(real-time streaming protocol) 통신으로 수신하여, 실시간 영상으로부터 선박 이미지를 검출한다. 선박 식별부(100)는 CCTV 영상 정보를 딥러닝 학습기반 영상 분석 기술로 심층 분석하여 영상 속의 객체를 선박으로 인식한다.The ship identification unit 100 receives a captured image from a CCTV camera through real-time streaming protocol (RTSP) communication, and detects a ship image from the real-time image. The vessel identification unit 100 analyzes CCTV image information in depth with deep learning learning-based image analysis technology and recognizes an object in the image as a vessel.

선박 식별부(100)는 CNN(Convolutional Neural Network), RNN(Recurrent Neural Networks), R-CNN(Recurrent Convolutional Neural Network), Fast RCNN, 및 Faster RCNN(Region based Convolutional Neural Network), YOLO(You Only Look Once), SSD(Single Shot Detector) 알고리즘 중 어느 하나의 알고리즘을 사용하여 카메라 영상 내의 선박 이미지를 검출할 수 있으며, 본 실시예에서는 R-CNN 기반의 딥러닝 알고리즘을 사용한다.The vessel identification unit 100 includes CNN (Convolutional Neural Network), RNN (Recurrent Neural Networks), R-CNN (Recurrent Convolutional Neural Network), Fast RCNN, and Faster RCNN (Region based Convolutional Neural Network), YOLO (You Only Look) Once), the ship image in the camera image can be detected using any one of the SSD (Single Shot Detector) algorithm, and in this embodiment, an R-CNN-based deep learning algorithm is used.

본 실시예에서는, 선박 이미지 검출을 위한 딥러닝 알고리즘은 인공 지능의 딥러닝 알고리즘 중 입력층/은닉층/출력층의 다층 구조의 컨볼루션 신경망(Conventional Neural Network, CNN) 알고리즘을 사용하였다.In this embodiment, the deep learning algorithm for ship image detection uses a convolutional neural network (CNN) algorithm having a multilayer structure of input layer/hidden layer/output layer among deep learning algorithms of artificial intelligence.

CNN은 하나 또는 여러 개의 합성곱 계층과 그 위에 올려진 인공 신경망 계층들로 구성되며, 가중치와 통합 계층(pooling layer)들을 추가로 활용하며, 이러한 구조 덕분에 CNN은 2차원 구조의 입력 데이터를 충분히 활용한다.CNN consists of one or several convolution layers and artificial neural network layers placed on top of them, and additionally utilizes weights and pooling layers. Thanks to this structure, CNN can sufficiently Utilize

카메라 입력 영상으로부터 입력층(input layer)/ n개의 은닉층(hidden layer)(Layer 1, Layer 2, Layer 3... )/ 출력층(output layer)을 포함하는 다층구조의 컨볼루션 신경망(CNN) 알고리즘은 CCTV 카메라 영상의 특징을 추출하고 분류하여 선박 이미지를 검출한다.Multi-layer convolutional neural network (CNN) algorithm including input layer/n hidden layers (Layer 1, Layer 2, Layer 3...)/output layer from camera input image detects ship images by extracting and classifying features of CCTV camera images.

다층구조의 합성곱 신경망(CNN)을 사용하여 Multilayer Perceptron을 통해 카메라 영상의 특징 추출(feature extraction)과 객체를 분류(classification)하여 객체(컨테이너, 차량, 사람, 양·적하 장비 등)를 검출한다.Detects objects (containers, vehicles, people, loading and unloading equipment, etc.) .

컨볼루션 신경망(CNN, Convolutional Neural Network)은 컨볼루셔널 층(Convolutional Layer), 풀링 층(Pooling Layer), FC 층(Fully Connected Layer, 완전연결층)을 포함하는 3개의 레이어가 사용된다.A convolutional neural network (CNN) uses three layers including a convolutional layer, a pooling layer, and a fully connected layer (FC layer).

CNN 알고리즘은 입력 영상에 가중치를 갖는 mask(예, 3x3 window)를 일정거리씩 이동해가며 컨볼루셔널 층(Convolutional Layer)과 풀링 층(Pooling Layer)에 의해 각각 convolution(합성곱)과 subsampling을 반복하여 영상의 데이터량을 줄이며 영상의 특징을 추출(feature extraction)하며, 컨볼루션에 의해 특징맵(feature map)을 추출하고, 신경망(Neural Network)에 의해 객체(사람, 선박 등)를 분류(classification)한다.The CNN algorithm moves a mask (e.g., a 3x3 window) with weights in the input image by a certain distance and repeats convolution and subsampling by a convolutional layer and a pooling layer, respectively. Reduces the amount of data in the image, extracts the feature of the image, extracts the feature map by convolution, and classifies the object (human, ship, etc.) by neural network do.

영상 처리시에, CNN 알고리즘에서, 컨볼루션(convolution)은 가중치(weight)를 갖는 마스크(예, 3x3 윈도우)를 사용하여 영상처리가 이루어지며, 입력 영상에 가중치를 갖는 마스크(예, 3x3 윈도우)를 이동해가며, 현재 입력 영상에 가중치를 갖는 마스크를 씌운 후 입력 영상의 픽셀값과 마스크의 가중치(weight)를 각각 곱한 후 그 합을 출력 영상의 픽셀값으로 정해진다.In image processing, in the CNN algorithm, convolution is performed using a mask (eg, 3x3 window) with weights, and the mask (eg, 3x3 window) with weights in the input image. While moving , a mask having a weight is applied to the current input image, pixel values of the input image are multiplied by the weight of the mask, and the sum is determined as the pixel value of the output image.

subsampling은 화면 크기를 줄이는 과정이며, 해당 영역의 최대치를 선택하는 max pooling을 사용한다.Subsampling is a process of reducing the screen size, and max pooling is used to select the maximum value of the corresponding area.

FC 층(Fully Connected Layer, 완전연결층)은 신경망의 입력단자에 연결시켜 학습(learning)에 의해 객체를 분류한다.The FC layer (Fully Connected Layer) classifies objects by learning by connecting them to the input terminal of the neural network.

현재 5층의 convolution layer와 3층의 fully_connected layer를 사용할 수 있다. 객체 추적을 학습하기 위해 객체 추적용 데이터베이스(300)를 사용하여 학습할 수있다.Currently, a 5-layer convolution layer and a 3-layer fully_connected layer can be used. In order to learn object tracking, the object tracking database 300 can be used for learning.

컨볼루셔널 층(Convolutional Layer)의 출력은 Max-Pooling Layer에 의해 subsampling을 진행하여 image의 특징맵(feature map)의 사이즈가 줄여지며, Max-Pooling의 출력은 FC 층(Fully Connected Layer)에서 객체의 클래스를 분류한다.The output of the Convolutional Layer is subsampled by the Max-Pooling Layer to reduce the size of the feature map of the image, and the output of the Max-Pooling is an object in the FC layer (Fully Connected Layer). classify the class of

결과적으로, 드론 카메라의 영상 내의 객체들(사람, 선박 등)을 검출하고 각각의 객체의 특징 추출 및 분류를 위해 CNN 구조의 중간 몇 개의 컨볼루션 층(convolutional layer)에서 객체 위치영역과 종류 정보를 포함하는 특징맵(feature map)을 추출하고, Pooling layer를 통과함에 따라 특징맵의 크기가 작아지며 각각 다른 크기의 특징맵에서 객체 위치영역 정보를 추출하여 객체를 검출하여, FC 층(Fully Connected Layer, 완전 연결층)에 의해 선박 이미지를 분류(classification)한다.As a result, to detect objects (humans, ships, etc.) in the image of the drone camera, and to extract and classify the features of each object, the object location area and type information are obtained from several convolutional layers in the middle of the CNN structure. The size of the feature map is reduced as it passes through the pooling layer, and object location area information is extracted from feature maps of different sizes to detect objects, and the FC layer (Fully Connected Layer , fully connected layer) to classify the ship image.

R-CNN의 기본적인 구조는 입력 이미지에서 Selective Search라는 Region Proposal 생성 알고리즘을 사용하여, 객체가 존재할 것으로 추정되는 Region Proposal들을 추출한다. 각각의 Region Proposal들은 사각형 모양의 Bounding Box 안의 이미지 형태인데, 모든 Region Proposal들에 대하여 크기를 동일하게 만든 후 CNN을 거쳐 분류하는 작업을 수행한다.The basic structure of R-CNN extracts Region Proposals where objects are estimated to exist by using a Region Proposal generation algorithm called Selective Search from an input image. Each Region Proposal is in the form of an image in a rectangular Bounding Box, and after making all Region Proposals the same size, classification is performed through CNN.

선박 식별부(100)가 검출한 선박 이미지는 위치정보 획득부(200)가 수신한 선박의 위치 정보와 매칭된다.The ship image detected by the ship identification unit 100 is matched with the location information of the ship received by the location information acquisition unit 200 .

위치정보 획득부(200)는 선박의 위치 정보를 포함한 선박 정보를 획득하기 위한 구성이다. 위치정보 획득부(200)는 선박에 장착된 선박자동식별장치 또는 어선위치발신장치로부터 선박의 위치정보를 수신한다.The location information acquisition unit 200 is a component for acquiring ship information including ship location information. The location information acquisition unit 200 receives the location information of the ship from an automatic vessel identification device or a fishing vessel location transmitter mounted on the vessel.

선박자동식별장치(AIS : Automatic Identification System)는 선박 운항정보, 하만 보고를 위하여 선박 간 또는 육상과 정보를 교환하며 300톤 이상의 배에서는 의무적으로 사용하여야 하는 국제 표준시스템이다.AIS (Automatic Identification System) is an international standard system that exchanges information between ships or with land for ship operation information and port reports, and must be used on ships of 300 tons or more.

어선위치발신장치(V-pass)는 해양사고 발생 시 신속한 대응을 위해 어선의 위치 및 긴급구조신호를 발신하며, 선박안전조업규칙 제15조에 따라 어선의 출입항 신고를 자동으로 처리할 수 있는 장치이다. 어선용단말기는 GPS와 무선데이터모뎀이 결합된 형태의 장치로서 GPS로부터 수신된 어선의 위치를 897Mhz대의 수신기가 어선의 위치를 수신한 후 해당 데이터를 해양경찰로 보내며 해양경찰 상황실, 안전센터(파출소), 출장소 등의 전자해도 화면에 어선의 위치가 나타나 실시간 위치파악 등 안전관리를 할 수 있는 장치이다.The fishing vessel location transmitter (V-pass) is a device that transmits the position of the fishing vessel and emergency rescue signal for prompt response in the event of a marine accident, and can automatically process the report of the fishing vessel's entry and exit in accordance with Article 15 of the Ship Safety Operation Regulations. . The terminal for fishing boats is a device in the form of a combination of GPS and wireless data modem. The 897Mhz receiver receives the position of the fishing boat received from the GPS and sends the data to the Korea Coast Guard. ), the location of the fishing boat is displayed on the electronic chart screen of the branch office, etc., enabling safety management such as real-time positioning.

선박자동식별장치 및/또는 어선위치발신장치로부터 신호를 수신하여 선박의 위치정보를 획득할 수 있다. 이 때 어선위치발신장치는 선박 정보, 연락처 및 위치를 어선안전국의 '어산통합관리시스템', 수협 중앙회의 '어선안전조업 관리시스템'에서 모니터링하는 바 위와 같은 유관기관으로부터 신호를 수신할 수 있다.It is possible to obtain the location information of the vessel by receiving a signal from the automatic vessel identification device and/or the fishing vessel location transmitter. At this time, the fishing vessel positioning device can receive signals from related organizations such as the bar that monitors vessel information, contact information and location in the 'fisheries integrated management system' of the Fishing Boat Safety Bureau and the 'fishing vessel safety operation management system' of the National Federation of Fisheries Cooperatives.

즉, 위치정보 획득부(200)는 선박에 장착된 선박자동식별장치 또는 어선위치발신장치로부터 선박의 위치정보를 직/간접적으로 수신할 수 있다.That is, the location information acquisition unit 200 may directly or indirectly receive the ship's location information from the ship's automatic identification device or fishing vessel location transmitting device mounted on the ship.

또한, 위치정보 외에도 다양한 선박정보를 위치정보 획득부(200)로부터 수신한다. 이 선박 정보에는 MMSI(Maritime Mobile Service Identity, 해상 이동 업무 식별 부호), 선박명, 선박타입, 목적지, 항해 상태, 대지 속력 등을 포함할 수 있다.In addition to location information, various ship information is received from the location information acquisition unit 200 . This ship information may include MMSI (Maritime Mobile Service Identity), ship name, ship type, destination, navigation status, ground speed, and the like.

데이터베이스(300)는 선박 이미지와 선박의 위치정보가 매칭된 정보와, 검지된 선박의 정보 및 선박 이미지를 저장한다.The database 300 stores information in which the ship image and location information of the ship are matched, the detected ship information, and the ship image.

구체적으로, 데이터베이스(300)는 위치정보 획득부(200)로부터 각종 선박 정보를 TCP/IP 통신으로 수신하여 저장하고, 선박 정보를 TCP/IP 통신으로 선박 식별부(100)로 전송한다. 선박 식별부(100)는 검출한 선박 이미지와 수신한 선박 정보를 매칭하고, TCP/IP 통신으로 데이터베이스(300)에 저장한다.Specifically, the database 300 receives and stores various vessel information from the location information acquisition unit 200 through TCP/IP communication, and transmits the vessel information to the vessel identification unit 100 through TCP/IP communication. The vessel identification unit 100 matches the detected vessel image with the received vessel information and stores them in the database 300 through TCP/IP communication.

또한, 선박 식별부(100)가 딥러닝 알고리즘을 사용하여 영상 분석을 통해 발생되는 데이터는 이미지 파일 형태로 데이터베이스(300)에 저장된다. 저장된 이미지 파일은 다시 촬영부(10)인 CCTV의 영상 분석을 위한 데이터셋으로 활용된다.In addition, data generated through image analysis by the vessel identification unit 100 using a deep learning algorithm is stored in the database 300 in the form of an image file. The stored image file is again used as a data set for video analysis of CCTV, which is the photographing unit 10.

본 선박 식별부(100)는 R-CNN 기반의 딥러닝 알고리즘을 통해 객체(선박)을 검출하는 바 영상 이미지의 특징(feature)의 판단으로 검출한다. 이러한 특징 때문에 각도가 약간만 다를 경우 객체가 미인식/오인식이 나는 경우가 많다. 그러나 본 실시예에서 촬영부(10)는 복수 대가 다양한 각도로 영상을 촬영하며, 다양한 각도에 맞게 다양한 데이터 셋을 구축할 수 있다.The present vessel identification unit 100 detects an object (ship) through an R-CNN-based deep learning algorithm, and detects it by determining a feature of a video image. Because of these characteristics, there are many cases where an object is not recognized/misrecognized when the angle is slightly different. However, in the present embodiment, multiple units of the photographing unit 10 may capture images at various angles and build various data sets according to the various angles.

도 3 내지 도 5는 본 발명의 제1실시예에 따른 물양장 관리 시스템의 모니터링부의 모니터링 화면 예시이며, 도 6은 본 발명의 제1실시예에 따른 물양장 관리 시스템의 모니터링부의 모니터링 순서도이며, 도 7은 본 발명의 제1실시예에 따른 물양장 관리 시스템의 모니터링부의 생성단계 알고리즘이다.3 to 5 are examples of monitoring screens of the monitoring unit of the watershed management system according to the first embodiment of the present invention, and FIG. 6 is a monitoring flowchart of the monitoring unit of the watershed management system according to the first embodiment of the present invention. is an algorithm for the generation step of the monitoring unit of the watershed management system according to the first embodiment of the present invention.

모니터링부(400)는 물양장에 입출항하는 선박들을 모니터링하기 위한 구성이다.The monitoring unit 400 is a component for monitoring ships entering and departing from the marina.

모니터링부(400)는 크게 지도 화면에 선박 정보를 표출하는 모니터링과, 실시간 관제 모니터링을 수행한다.The monitoring unit 400 largely performs monitoring to display ship information on a map screen and real-time control monitoring.

지도 화면에 선박 정보를 표출하는 모니터링은, 물양장의 지도 데이터가 저장되는 지도 서버로부터 지도 데이터를 수신하고, 위치정보 획득부(200)로부터 수신한 선박의 최종 위치와 대응되는 지도 데이터 상의 지점에 선박 이미지를 표시하며, 선박 이미지를 클릭 시 선박의 정보를 로딩하여 디스플레이 상에 표시한다.Monitoring displaying ship information on the map screen receives map data from the map server where the map data of the wharf is stored, and locates the ship at a point on the map data corresponding to the final position of the ship received from the location information acquisition unit 200. The image is displayed, and when the ship image is clicked, the information of the ship is loaded and displayed on the display.

구체적으로, 모니터링부(400)는 지도 화면에 선박 정보를 표출하는 모니터링 수행 시, 로딩단계, 아이콘 표시단계, 생성단계, 디스플레이 단계를 실행한다.Specifically, the monitoring unit 400 executes a loading step, an icon display step, a creation step, and a display step when performing monitoring to display ship information on a map screen.

로딩 단계는 지도 데이터를 수신하여 물양장 지도 데이터를 로딩하는 단계이다. 즉, 지도 서버에는 물양장의 지도 데이터가 저장되며, 이 지도 데이터를 로딩한다.The loading step is a step of receiving map data and loading fish farm map data. That is, the map data of the fish farm is stored in the map server, and the map data is loaded.

그리고, 지도 데이터 상에 촬영부(10) 설치 위치에 대응되는 영역에 카메라 아이콘을 표시한다.Then, a camera icon is displayed on the map data in an area corresponding to the location where the photographing unit 10 is installed.

이 때, 물양장의 입구에 설치되는 CCTV인 촬영부(10) 외에도, 물양장 내부를 촬영하는 다른 카메라들의 설치 위치에도 카메라 아이콘을 표시할 수 있다.At this time, in addition to the camera unit 10, which is a CCTV installed at the entrance of the kennel, camera icons may be displayed at installation positions of other cameras that take pictures of the inside of the kennel.

생성단계는 선박위치 갱신 스레드와 미등록 선박 확인 스레드를 생성하는 단계이다.The creation step is a step of creating a vessel location update thread and an unregistered vessel confirmation thread.

선박위치 갱신 스레드 실행 시 위치정보 획득부(200)로부터 수신한 선박의 최종 위치와 대응되는 지도 데이터 상의 지점에 선박 이미지를 표시한다. 스레드 종료 이벤트가 수신되면 스레드가 종료되며, 수신되지 않는 경우 선박들의 최근 위치 정보를 수신하며 최종 위치에 선박 이미지를 표시한다.When the ship location update thread is executed, a ship image is displayed at a point on the map data corresponding to the final location of the ship received from the location information acquisition unit 200. If the thread end event is received, the thread is terminated. If not received, the latest location information of ships is received and the ship image is displayed at the final location.

미등록 선박 확인 스레드 실행 시 미등록 선박의 접근 정보를 표시한다.Displays the access information of unregistered vessels when the unregistered vessel verification thread is executed.

디스플레이 단계는 사용자가 선박 이미지를 클릭 시 선박의 정보를 로딩하여 디스플레이 상에 표시한다.In the display step, when the user clicks the ship image, ship information is loaded and displayed on the display.

지도 이미지 상에 위치정보 획득부(200) 등으로부터 수신되는 정보들의 리스트를 표시하고, 사용자가 어느 하나의 선박 이미지를 클릭하는 경우 해당 선박의 위 정보들을 표시한다.A list of information received from the location information acquisition unit 200 and the like is displayed on the map image, and when the user clicks on any one ship image, the above information of the corresponding ship is displayed.

실시간 관제 모니터링은 촬영부(10)가 촬영한 촬영 영상에 선박을 표시하는 이미지와, 선박의 정보를 오버레이하여, 실시간 영상을 기반으로 선박 정보 표출 및 시스템 운영 상 발생되는 시스템 또는 네트워크 오류 등을 사용자가 실시간으로 확인할 수 있도록 촬영부(10)의 촬영 영상을 관제한다.Real-time control monitoring overlays the image displaying the ship and ship information on the captured image taken by the photographing unit 10 to display ship information based on the real-time image and to display system or network errors that occur during system operation. Controls the captured image of the photographing unit 10 so that it can be checked in real time.

촬영부(10)로부터 촬영 영상을 RTSP로 수신받아 선박 입출항 및 주변 영상을 실시간으로 표출한다.It receives the captured image from the photographing unit 10 through RTSP and displays the ship's arrival and departure and surrounding images in real time.

그리고 데이터베이스(300)로부터 선박 정보(위치정보 획득부(200)로부터 데이터베이스(300)로 전송됨)를 수신하여, 선박 정보를 실시간 영상에 오버레이 하여 함께 표출되도록 한다.Then, ship information (transmitted from the location information acquisition unit 200 to the database 300) is received from the database 300, and the ship information is overlaid on the real-time image so that it is displayed together.

다음으로 본 발명의 제2실시예에 따른 물양장 관리 시스템(1000)에 대해 설명한다.Next, the watershed management system 1000 according to the second embodiment of the present invention will be described.

도 8은 본 발명의 제2실시예에 따른 물양장 관리 시스템의 장치도이다.8 is a device diagram of a fish farm management system according to a second embodiment of the present invention.

본 발명의 제2실시예에 따른 물양장 관리 시스템(1000)은, 선박 식별부(100)와, 위치확인 검출부와, 데이터베이스(300)와, 모니터링부(400)와, 문자인식부(500) 및 드론(600)을 포함한다. 문자인식부(500)와 드론(600)을 제외한 구성은 제1실시예와 동일한 바 중복 설명은 생략한다.The watershed management system 1000 according to the second embodiment of the present invention includes a vessel identification unit 100, a positioning detection unit, a database 300, a monitoring unit 400, a character recognition unit 500, and A drone 600 is included. Since the configuration except for the character recognition unit 500 and the drone 600 is the same as that of the first embodiment, duplicate descriptions are omitted.

문자인식부(500)와 드론(600)은 선박의 정보를 파악할 수 없는 경우 선박을 인식하기 위한 구성이다.The character recognition unit 500 and the drone 600 are components for recognizing a ship when ship information cannot be grasped.

문자인식부(500)는 선박자동식별장치 또는 어선위치발신장치로부터 선박의 위치정보가 수신되지 않는 경우, 촬영 영상을 분석하여 선박에 표시된 문자를 인식하여 선박명을 인지하는 구성이다.The text recognition unit 500 is a component for recognizing a ship name by analyzing a photographed image and recognizing text displayed on a ship when ship location information is not received from an automatic ship identification device or a fishing vessel location transmitter.

위치정보 획득부(200)로부터 선박의 위치정보 외에도 다양한 선박 정보들을 수신한다. 모니터링을 위해서는 선박의 위치정보 외에도 선박명 등의 정보들이 필요한데, 위치정보 획득부(200)로부터 정보가 수신되지 않는 경우, 선박의 위치, 선박명 등의 파악이 필요하다.In addition to ship location information, various ship information is received from the location information acquisition unit 200 . For monitoring, information such as ship name in addition to ship location information is required. When information is not received from the location information acquisition unit 200, it is necessary to determine the ship's location and ship name.

어선위치발신장치 설치 제외 어선으로는, 무동력선, 「내수면어업법」에 따른 내수면어업에 종사하는 어선, 수산업에 관한 시험·조사·지도·단속에 종사하는 어선, 「수산업법」제8조에 따른 면허어업에 사용하기 위하여 같은 법 제27조 제1항, 제3항에 따라 관리선으로 지정받거나 승인받은 어선(다만, 「낚시 관리 및 육성법」에 따른 낚시어선은 제외한다.), 「선박안전 조업규칙」제5조제2항제2호에 따른 서해특정해역에서 「수산업법 시행령」제24조제1항제111호에 따른 근해자망어업에 종사하는 어선의 부속선, 2톤 미만의 어선으로서 상갑판이 없이 현단으로만 이루어져 있거나, 상갑판 상부에 구조물이 없는 어선 등이다. 이러한 어선에는 위치정보 획득부(200)를 통한 위치정보, 선박정보의 획득이 불가능하다.Fishing vessels excluding the installation of a fishing vessel location transmitter include non-powered boats, fishing boats engaged in inland water fishing under the 「Inland Water Fisheries Act」, fishing boats engaged in testing, investigation, guidance and regulation related to the fishery industry, and licensed fishing under Article 8 of the 「Fishing Industry Act」 Fishing boats designated or approved as management vessels pursuant to Article 27 Paragraphs 1 and 3 of the same Act (however, fishing boats under the 「Fishing Management and Promotion Act」 are excluded), 「Ship Safety Fishing Regulations」 」 A fishing boat attached to a fishing vessel engaged in inshore gillnet fishing pursuant to Article 24 (1) 111 of the 「Enforcement Decree of the Fisheries Act」 in a specific area of the West Sea pursuant to Article 5 (2) 2, a fishing boat of less than 2 tons, without an upper deck, only on the side end. or a fishing boat without a structure on the upper deck. It is impossible to acquire location information and ship information through the location information acquisition unit 200 for such a fishing boat.

이에 문자인식부(500)는 촬영부(10)의 촬영 영상을 수신하여 문자를 인식함으로써 선박명을 판독하는 구성이다. Accordingly, the character recognition unit 500 is a component that reads the ship name by receiving the captured image of the photographing unit 10 and recognizing the character.

선박에는 선미 좌·우, 후면에 선명을 표기하고 있으므로, 촬영부(10)의 촬영 영상을 수신하여 문자를 인식함으로써 선박명을 판독한다.Since the name of the ship is marked on the left, right, and rear of the stern, the ship name is read by receiving the captured image of the photographing unit 10 and recognizing the character.

그리고, 드론(600)은 촬영부(10)의 촬영영역 상에 위치한다. 즉, 드론(600)은 촬영부(10)의 촬영영역에 대응하는 지점의 상공에서 비행한다. 드론(600)의 비행좌표는 데이터베이스(300)로 전송되며 드론(600)의 좌표로부터 선박의 위치정보를 알 수 있다.And, the drone 600 is located on the photographing area of the photographing unit 10 . That is, the drone 600 flies above a point corresponding to the shooting area of the photographing unit 10 . The flight coordinates of the drone 600 are transmitted to the database 300, and location information of the ship can be known from the coordinates of the drone 600.

즉, 촬영부(10)가 촬영하는 영역 내로 선박이 들어오면, 문자인식부(500)가 선박명을 분석하고, 드론(600)의 위치정보가 선박의 위치정보가 되므로 드론(600)의 비행좌표를 통해 선박의 위치정보를 알 수 있다.That is, when a ship enters the area photographed by the photographing unit 10, the text recognition unit 500 analyzes the ship name, and since the location information of the drone 600 becomes the location information of the ship, the flight coordinates of the drone 600 Through this, the position information of the ship can be known.

따라서 본 발명에 의하면, CCTV 카메라로 물양장의 입구 측을 촬영하는 실시간 촬영영상으로부터 딥러닝을 통해 선박을 검출하고, 위치정보 획득부를 통해 획득한 선박의 위치정보와 선박정보를 매칭하여 물양장의 입출항 선박을 관리하는 물양장 관리 시스템이 제공된다.Therefore, according to the present invention, a ship is detected through deep learning from a real-time video taken at the entrance of the wharf by a CCTV camera, and the ship's location information obtained through the location information acquisition unit is matched with the ship information to enter and depart the wharf. A fish farm management system for managing is provided.

본 발명에서 모든 예들 또는 예시적인 용어(예를 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한 해당 기술 분야의 통상의 기술자는 다양한 수정, 조합 및 변경이 부가된 청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터(factor)에 따라 구성될 수 있음을 알 수 있다.The use of all examples or exemplary terms (eg, etc.) in the present invention is simply to explain the present invention in detail, and the scope of the present invention is limited due to the examples or exemplary terms unless limited by the claims. it is not going to be In addition, those skilled in the art will know that various modifications, combinations and changes can be made according to design conditions and factors within the scope of the appended claims or equivalents thereof.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 청구범위 뿐만 아니라, 이 청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments and should not be determined, and not only the claims described later, but also all ranges equivalent to or equivalent to these claims are within the scope of the spirit of the present invention. would be said to belong.

1000, 2000 : 물양장 관리 시스템
100 : 선박 식별부 200 : 위치정보 획득부
300 : 데이터 베이스 400 : 모니터링부
500 : 문자인식부 600 : 드론
1000, 2000 : Fish farm management system
100: vessel identification unit 200: location information acquisition unit
300: database 400: monitoring unit
500: text recognition unit 600: drone

Claims (6)

물양장의 입구 측에 설치되는 촬영부로부터 실시간 촬영 영상을 수신 및 분석하여 선박 이미지를 검출하는 선박 식별부;
선박에 장착된 선박자동식별장치 또는 어선위치발신장치로부터 선박의 위치정보를 수신하는 위치정보 획득부;
상기 선박 이미지와 상기 선박의 위치정보가 매칭된 정보와, 검지된 상기 선박의 정보를 저장하고, 상기 선박 이미지를 저장하는 데이터베이스; 및
상기 데이터베이스로부터 상기 선박의 입출항 정보, 정박 정보를 확인하여 모니터링하며, 상기 데이터베이스에 저장된 상기 선박의 정보를 로딩하여 확인 가능하며, 상기 선박의 이벤트 정보를 분석하는 모니터링부;를 포함하며,
상기 모니터링부는,
물양장의 지도 데이터가 저장되는 지도 서버로부터 상기 지도 데이터를 수신하고, 상기 위치정보 획득부로부터 수신한 선박의 최종 위치와 대응되는 상기 지도 데이터 상의 지점에 상기 선박 이미지를 표시하며, 상기 선박 이미지를 클릭 시 상기 선박의 정보를 로딩하여 디스플레이 상에 표시하는 물양장 관리 시스템.
A vessel identification unit for detecting a vessel image by receiving and analyzing a real-time captured image from a recording unit installed at the entrance of a fish farm;
A location information acquisition unit for receiving location information of a ship from an automatic vessel identification device or a fishing vessel location transmitter mounted on the vessel;
a database for storing information in which the ship image and location information of the ship are matched and information of the detected ship, and storing the ship image; and
A monitoring unit that checks and monitors the vessel's arrival and departure information and anchorage information from the database, loads and checks the vessel information stored in the database, and analyzes the vessel's event information;
The monitoring unit,
The map data is received from the map server where the map data of the marina is stored, the ship image is displayed at a point on the map data corresponding to the final position of the ship received from the location information acquisition unit, and the ship image is clicked. A wharf management system that loads information on the vessel and displays it on a display.
제1항에 있어서,
상기 선박자동식별장치 또는 어선위치발신장치로부터 선박의 위치정보가 수신되지 않는 경우, 상기 촬영 영상을 분석하여 선박에 표시된 문자를 인식하여 선박명을 인지하는 문자 인식부;
상기 촬영부의 촬영 지점 상의 좌표를 획득하는 드론;을 더 포함하며,
상기 모니터링부는 상기 드론으로부터 상기 촬영 지점의 좌표 정보를 수신하는 물양장 관리 시스템.
According to claim 1,
a character recognition unit for recognizing a ship name by analyzing the captured image and recognizing characters displayed on the ship, when the vessel location information is not received from the automatic vessel identification device or the fishing vessel location transmitter;
It further includes; a drone that acquires coordinates on the photographing point of the photographing unit,
The monitoring unit receives the coordinate information of the shooting point from the drone.
제1항에 있어서,
상기 선박 식별부는,
딥러닝 알고리즘을 사용하여 영상 분석을 통해 선박 이미지를 검출하며,
상기 딥러닝 알고리즘을 통해 발생되는 데이터는 이미지 파일 형태로 상기 데이터베이스에 저장되는 물양장 관리 시스템.
According to claim 1,
The vessel identification unit,
Using a deep learning algorithm to detect ship images through image analysis,
Data generated through the deep learning algorithm is stored in the database in the form of an image file.
제2항에 있어서,
상기 문자 인식부는,
복수 대의 상기 촬영부의 촬영 영상을 각각 서로 다른 배율로 확대하여 분석하며, 상기 선박에 표시된 문자가 데이터 라벨링된 자료가 저장되는 물양장 관리 시스템.
According to claim 2,
The character recognition unit,
The wharf management system in which the captured images of the plurality of photographing units are enlarged and analyzed at different magnifications, and the data labeled with the characters displayed on the ship are stored.
제1항에 있어서,
상기 모니터링부는,
상기 지도 데이터를 수신하여 물양장 지도 데이터를 로딩하는 단계;
상기 촬영부 설치 위치에 대응되는 영역에 카메라 아이콘을 표시하는 단계;
선박위치 갱신 스레드와 미등록 선박 확인 스레드를 생성하는 단계;를 수행하며,
상기 선박위치 갱신 스레드 실행 시 상기 위치정보 획득부로부터 수신한 선박의 최종 위치와 대응되는 상기 지도 데이터 상의 지점에 상기 선박 이미지를 표시하며,
상기 미등록 선박 확인 스레드 실행 시 미등록 선박의 접근 정보를 표시하며,
상기 선박 이미지를 클릭 시 상기 선박의 정보를 로딩하여 당시 디스플레이 상에 표시하는 물양장 관리 시스템.
According to claim 1,
The monitoring unit,
receiving the map data and loading fish farm map data;
displaying a camera icon in an area corresponding to the installation location of the photographing unit;
Creating a vessel location update thread and an unregistered vessel confirmation thread;
When the ship location update thread is executed, the ship image is displayed at a point on the map data corresponding to the final location of the ship received from the location information acquisition unit;
When the unregistered vessel confirmation thread is executed, the access information of the unregistered vessel is displayed,
When the ship image is clicked, the ship's information is loaded and displayed on the display at the time.
제1항에 있어서,
상기 모니터링부는,
상기 위치정보 획득부로부터 수신된 정보를 기반으로 상기 촬영 영상에 선박을 표시하는 이미지와 상기 선박의 정보를 오버레이하는 물양장 관리 시스템.



According to claim 1,
The monitoring unit,
A marina management system for overlaying an image displaying a ship and information of the ship on the captured image based on the information received from the location information acquisition unit.



KR1020210134497A 2021-10-08 2021-10-08 Management system of lighters wharf KR20230051012A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210134497A KR20230051012A (en) 2021-10-08 2021-10-08 Management system of lighters wharf

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210134497A KR20230051012A (en) 2021-10-08 2021-10-08 Management system of lighters wharf

Publications (1)

Publication Number Publication Date
KR20230051012A true KR20230051012A (en) 2023-04-17

Family

ID=86128027

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210134497A KR20230051012A (en) 2021-10-08 2021-10-08 Management system of lighters wharf

Country Status (1)

Country Link
KR (1) KR20230051012A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102096746B1 (en) 2019-09-03 2020-04-03 주식회사 스마트엠투엠 System and method for gate management for harbor security based on blockchain
KR102137380B1 (en) 2019-11-05 2020-07-24 에이원커뮤니케이션즈코리아(주) Management system of smart harbor
KR102206662B1 (en) 2020-08-14 2021-01-22 아이티플래닛 주식회사 Vision camera system to manage an entrance and exit management of vehicles and to recognize objects of camera video data in a port container terminal and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102096746B1 (en) 2019-09-03 2020-04-03 주식회사 스마트엠투엠 System and method for gate management for harbor security based on blockchain
KR102137380B1 (en) 2019-11-05 2020-07-24 에이원커뮤니케이션즈코리아(주) Management system of smart harbor
KR102206662B1 (en) 2020-08-14 2021-01-22 아이티플래닛 주식회사 Vision camera system to manage an entrance and exit management of vehicles and to recognize objects of camera video data in a port container terminal and method thereof

Similar Documents

Publication Publication Date Title
CN109409283B (en) Method, system and storage medium for tracking and monitoring sea surface ship
US11900668B2 (en) System and method for identifying an object in water
US7889232B2 (en) Method and system for surveillance of vessels
CN109725310B (en) Ship positioning supervision system based on YOLO algorithm and shore-based radar system
CN108806334A (en) A kind of intelligent ship personal identification method based on image
KR101805564B1 (en) Alarm system for prevent ship collision and method thereby
US20130163822A1 (en) Airborne Image Capture and Recognition System
CN111163290B (en) Method for detecting and tracking night navigation ship
CN113361942A (en) Marine vessel commanding and dispatching method, system, computer equipment and storage medium
KR20210090572A (en) Device and method for monitoring a berthing
Bloisi et al. Camera based target recognition for maritime awareness
CN110515378A (en) A kind of intelligent Target searching method applied to unmanned boat
CN112085642A (en) Harbor management method, harbor management system, computer device, and storage medium
US8275172B2 (en) Multipass data integration for automatic detection and classification of objects
CN113822217A (en) Ship tail gas monitoring method based on AIS and video image analysis
JP5218072B2 (en) Entry / exit management system, processing method, entry / exit management device, and program
CN115187936B (en) Monitoring system and method for preventing offshore platform from climbing
KR20230051012A (en) Management system of lighters wharf
KR20230052576A (en) Monitoring system of lighters wharf
KR102479959B1 (en) Artificial intelligence based integrated alert method and object monitoring device
Bloisi et al. Integrated visual information for maritime surveillance
WO2023275544A1 (en) Methods and systems for detecting vessels
CN113705503A (en) Abnormal behavior detection system and method based on multi-mode information fusion
CN111918032B (en) Unmanned ship-based overwater supervision method, system, device and intelligent equipment
Bereta et al. Vessel detection using image processing and neural networks

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
N231 Notification of change of applicant