KR20230051012A - Management system of lighters wharf - Google Patents
Management system of lighters wharf Download PDFInfo
- Publication number
- KR20230051012A KR20230051012A KR1020210134497A KR20210134497A KR20230051012A KR 20230051012 A KR20230051012 A KR 20230051012A KR 1020210134497 A KR1020210134497 A KR 1020210134497A KR 20210134497 A KR20210134497 A KR 20210134497A KR 20230051012 A KR20230051012 A KR 20230051012A
- Authority
- KR
- South Korea
- Prior art keywords
- vessel
- ship
- information
- image
- unit
- Prior art date
Links
- 238000012544 monitoring process Methods 0.000 claims abstract description 35
- 238000013135 deep learning Methods 0.000 claims description 14
- 241000251468 Actinopterygii Species 0.000 claims description 11
- 238000012790 confirmation Methods 0.000 claims description 5
- 238000010191 image analysis Methods 0.000 claims description 4
- 238000009434 installation Methods 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 abstract 1
- 238000013527 convolutional neural network Methods 0.000 description 16
- 230000000875 corresponding effect Effects 0.000 description 10
- 238000011176 pooling Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000000034 method Methods 0.000 description 5
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000004873 anchoring Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002079 cooperative effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003912 environmental pollution Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G3/00—Traffic control systems for marine craft
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Ocean & Marine Engineering (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
본 발명은 물양장 관리 시스템에 관한 것으로서, 보다 상세하게는 물양장의 입출항 선박을 자동으로 식별하고 관리할 수 있는 물양장 관리 시스템에 관한 것이다.The present invention relates to a wharf management system, and more particularly, to a wharf management system capable of automatically identifying and managing vessels entering and leaving the wharf.
일반적으로 물양장이란 소형선박이 접안하여 계류하는 안벽 구조물로서 항만에서는 전면수심이 4.5m 미만, 어항에서는 2.5m 이내인 부두를 의미한다.In general, a water wharf is a quay structure in which small ships dock and moor, and means a pier with a front water depth of less than 4.5 m in a port and less than 2.5 m in a fishing port.
물양장 사용을 위해서는 사용요금을 납부하여야 하나 관리시스템의 부재로 허가 받지 않은 선박의 출입이 있어도 파악이 불가능한 문제점이 있다.In order to use the water wharf, a user fee must be paid, but there is a problem that it is impossible to grasp even if there is an unauthorized vessel entering or exiting due to the absence of a management system.
부산항만공사에서 관리 중인 물양장의 경우 물양장 당 일일 평균 50~100대의 선박이 출입하며 태풍 등의 재난상황 시 600여대의 선박이 정박한다. 다수의 선박들이 출입함에도 불구하고 현재 선주 신고정보를 기준으로 수기관리 중이며, 무단사용 및 미허가 입출항 선박 등에 대해서는 실시간 관리가 어려운 상황이다.In the case of a fishery managed by the Busan Port Authority, an average of 50 to 100 ships enter and exit per day per fishery, and about 600 ships are anchored in disaster situations such as typhoons. Despite the fact that many vessels enter and exit, it is currently being managed manually based on the information reported by the owner, and real-time management is difficult for unauthorized use and unauthorized entry and departure.
이에 따라 사용료 부과·징수 등 관리가 곤란하고,선박 입출항 및 계류 상황 파악 역시 어려운 문제점이 있다.As a result, management such as imposition and collection of usage fees is difficult, and it is also difficult to grasp the ship's arrival and departure and mooring conditions.
이에 따라, 선박 간 충돌 등의 사고 시 빠른 대응 조치를 위해 해당 선박과 타 정박 선박의 정보를 파악 하여야 하나, 파악 할 수가 없어 2차 사고 위험성이 증가하는 문제점이 있다.Accordingly, in order to quickly respond to an accident such as a collision between ships, it is necessary to grasp the information of the vessel and other anchored vessels, but there is a problem in that the risk of secondary accidents increases because it cannot be grasped.
또한 폐선과 장기 방치선박으로 인한 환경오염 및 항로 위협 발생할 수 있는데, 관리 시스템의 부재로 인해 방치 선박의 증명이 어려운 문제점이 있다.In addition, environmental pollution and route threats may occur due to abandoned ships and long-term abandoned ships, and there is a problem in that it is difficult to prove abandoned ships due to the absence of a management system.
본 발명에 따른 물양장 관리 시스템은, 물양장의 입출항 선박을 자동으로 식별하고 관리할 수 있는 물양장 관리 시스템을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a wharf management system capable of automatically identifying and managing vessels entering and leaving the wharf.
본 발명에 따른 물양장 관리 시스템은, CCTV 카메라로 물양장의 입구 측을 촬영하는 실시간 촬영영상으로부터 딥러닝을 통해 선박을 검출하고, 위치정보 획득부를 통해 획득한 선박의 위치정보와 선박정보를 매칭하여 물양장의 입출항 선박을 관리하는 물양장 관리 시스템을 제공하는 것을 목적으로 한다.The fish farm management system according to the present invention detects a ship through deep learning from a real-time video taken at the entrance of the fish farm by a CCTV camera, and matches the location information of the ship and the ship information obtained through the location information acquisition unit to the fish farm. Its purpose is to provide a waterfront management system that manages the arrival and departure of ships.
본 발명의 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The tasks of the present invention are not limited to the technical tasks mentioned above, and other technical tasks not mentioned will be clearly understood by those skilled in the art from the following description.
본 발명의 일 실시예에 따른 물양장 관리 시스템은, 물양장의 입구 측에 설치되는 촬영부로부터 실시간 촬영 영상을 수신 및 분석하여 선박 이미지를 검출하는 선박 식별부; 선박에 장착된 선박자동식별장치 또는 어선위치발신장치로부터 선박의 위치정보를 수신하는 위치정보 획득부; 상기 선박 이미지와 상기 선박의 위치정보가 매칭된 정보와, 검지된 상기 선박의 정보를 저장하고, 상기 선박 이미지를 저장하는 데이터베이스; 및 상기 데이터베이스로부터 상기 선박의 입출항 정보, 정박 정보를 확인하여 모니터링하며, 상기 데이터베이스에 저장된 상기 선박의 정보를 로딩하여 확인 가능하며, 상기 선박의 이벤트 정보를 분석하는 모니터링부;를 포함하며, 상기 모니터링부는, 물양장의 지도 데이터가 저장되는 지도 서버로부터 상기 지도 데이터를 수신하고, 상기 위치정보 획득부로부터 수신한 선박의 최종 위치와 대응되는 상기 지도 데이터 상의 지점에 상기 선박 이미지를 표시하며, 상기 선박 이미지를 클릭 시 상기 선박의 정보를 로딩하여 디스플레이 상에 표시할 수 있다.A fishery management system according to an embodiment of the present invention includes: a ship identification unit for detecting a ship image by receiving and analyzing a real-time captured image from a photographing unit installed at the entrance of a fishery; A location information acquisition unit for receiving location information of a ship from an automatic vessel identification device or a fishing vessel location transmitter mounted on the vessel; a database for storing information in which the ship image and location information of the ship are matched and information of the detected ship, and storing the ship image; and a monitoring unit that checks and monitors the vessel's arrival and departure information and anchoring information from the database, loads and checks the vessel information stored in the database, and analyzes the vessel's event information. The unit receives the map data from the map server where the map data of the fishery is stored, displays the ship image at a point on the map data corresponding to the final position of the ship received from the location information acquisition unit, and displays the ship image When is clicked, information on the vessel may be loaded and displayed on the display.
여기서, 상기 선박자동식별장치 또는 어선위치발신장치로부터 선박의 위치정보가 수신되지 않는 경우, 상기 촬영 영상을 분석하여 선박에 표시된 문자를 인식하여 선박명을 인지하는 문자 인식부; 상기 촬영부의 촬영 지점 상의 좌표를 획득하는 드론;을 더 포함하며, 상기 모니터링부는 상기 드론으로부터 상기 촬영 지점의 좌표 정보를 수신할 수 있다.Here, when the location information of the ship is not received from the automatic vessel identification device or the fishing vessel location transmitter, a character recognition unit for recognizing the ship name by analyzing the captured image and recognizing characters displayed on the ship; The drone may further include a drone that obtains coordinates of the photographing point of the photographing unit, and the monitoring unit may receive coordinate information of the photographing point from the drone.
여기서, 상기 선박 식별부는, 딥러닝 알고리즘을 사용하여 영상 분석을 통해 선박 이미지를 검출하며, 상기 딥러닝 알고리즘을 통해 발생되는 데이터는 이미지 파일 형태로 상기 데이터베이스에 저장될 수 있다.Here, the ship identification unit detects a ship image through image analysis using a deep learning algorithm, and data generated through the deep learning algorithm may be stored in the database in the form of an image file.
여기서, 상기 문자 인식부는, 복수 대의 상기 촬영부의 촬영 영상을 각각 서로 다른 배율로 확대하여 분석하며, 상기 선박에 표시된 문자가 데이터 라벨링된 자료가 저장될 수 있다.Here, the character recognition unit enlarges and analyzes images captured by a plurality of the photographing units at different magnifications, and data labeled with characters displayed on the ship may be stored.
여기서, 상기 모니터링부는, 상기 지도 데이터를 수신하여 물양장 지도 데이터를 로딩하는 단계; 상기 촬영부 설치 위치에 대응되는 영역에 카메라 아이콘을 표시하는 단계; 선박위치 갱신 스레드와 미등록 선박 확인 스레드를 생성하는 단계;를 수행하며, 상기 선박위치 갱신 스레드 실행 시 상기 위치정보 획득부로부터 수신한 선박의 최종 위치와 대응되는 상기 지도 데이터 상의 지점에 상기 선박 이미지를 표시하며, 상기 미등록 선박 확인 스레드 실행 시 미등록 선박의 접근 정보를 표시하며, 상기 선박 이미지를 클릭 시 상기 선박의 정보를 로딩하여 당시 디스플레이 상에 표시할 수 있다.Here, the monitoring unit receives the map data and loads fish farm map data; displaying a camera icon in an area corresponding to the installation location of the photographing unit; generating a ship location update thread and an unregistered ship confirmation thread; and when the ship location update thread is executed, the ship image is displayed at a point on the map data corresponding to the final location of the ship received from the location information acquisition unit. When the unregistered vessel confirmation thread is executed, access information of the unregistered vessel is displayed, and when the vessel image is clicked, the vessel information can be loaded and displayed on the display at that time.
여기서, 상기 모니터링부는, 상기 위치정보 획득부로부터 수신된 정보를 기반으로 상기 촬영 영상에 선박을 표시하는 이미지와 상기 선박의 정보를 오버레이할 수 있다.Here, the monitoring unit may overlay an image displaying a vessel and information of the vessel on the captured image based on the information received from the location information obtaining unit.
본 발명의 실시예들에 의하면 적어도 다음과 같은 효과가 있다.According to embodiments of the present invention, at least the following effects are provided.
본 발명에 따른 물양장 관리 시스템은 물양장의 입출항 선박을 자동으로 식별하고 관리할 수 있다.The wharf management system according to the present invention can automatically identify and manage vessels entering and leaving the wharf.
또한, 선박 식별부를 통해 촬영부의 촬영 영상에서의 객체가 선박인지 여부를 감지하고, 위치정보 획득부로부터 선박의 위치를 확인함으로써 선박의 입출항을 관리할 수 있다.In addition, it is possible to manage the arrival and departure of the ship by detecting whether or not the object in the captured image of the photographing unit is a ship through the ship identification unit and confirming the location of the ship from the location information acquisition unit.
또한, 선박 식별부가 딥러닝 알고리즘을 사용하여 영상 분석을 통해 발생되는 데이터는 이미지 파일 형태로 데이터베이스에 저장되고, 이는 다시 촬영부인 CCTV의 영상 분석을 위한 데이터셋으로 활용됨으로써 보다 정확하게 선박을 식별할 수 있다.In addition, the data generated through video analysis by the ship identification unit using a deep learning algorithm is stored in the database in the form of an image file, which is then used as a dataset for video analysis by CCTV, which is the shooting unit, so that the ship can be more accurately identified. there is.
또한, 지도 데이터 상에 선박의 위치가 선박 이미지로 표시되고, 선박 이미지를 클릭 시 위치정보 획득부로부터 수신한 선박 정보가 표시됨으로써 용이하게 모니터링을 할 수 있다.In addition, the location of the ship is displayed as a ship image on the map data, and when the ship image is clicked, the ship information received from the location information acquisition unit is displayed, so monitoring can be easily performed.
또한, 촬영부가 촬영하는 실시간 영상에 위치정보 획득부로부터 수신한 선박 정보와 선박을 표시하는 이미지가 오버레이 됨으로써 실시간으로 선박을 용이하게 모니터링할 수 있다.In addition, the vessel information received from the location information acquisition unit and the image displaying the vessel are overlaid on the real-time image captured by the photographing unit, so that the vessel can be easily monitored in real time.
또한, 위치정보 획득부가 없는 선박의 경우에도 문자 인식부를 통해 선박명 등의 정보를 확인할 수 있다.In addition, even in the case of a ship without a location information acquisition unit, information such as a ship name can be checked through a text recognition unit.
본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.Effects according to the present invention are not limited by the contents exemplified above, and more various effects are included in the present specification.
도 1은 본 발명의 제1실시예에 따른 물양장 관리 시스템의 장치도
도 2는 본 발명의 제1실시예에 따른 물양장 관리 시스템의 선박 식별부의 관계도
도 3 내지 도 5는 본 발명의 제1실시예에 따른 물양장 관리 시스템의 모니터링부의 모니터링 화면 예시
도 6은 본 발명의 제1실시예에 따른 물양장 관리 시스템의 모니터링부의 모니터링 순서도
도 7은 본 발명의 제1실시예에 따른 물양장 관리 시스템의 모니터링부의 생성단계 알고리즘
도 8은 본 발명의 제2실시예에 따른 물양장 관리 시스템의 장치도이다.1 is a device diagram of a fishery management system according to a first embodiment of the present invention
2 is a relationship diagram of a vessel identification unit of a waterfront management system according to a first embodiment of the present invention
3 to 5 are examples of monitoring screens of the monitoring unit of the watershed management system according to the first embodiment of the present invention.
6 is a monitoring flow chart of the monitoring unit of the fishery management system according to the first embodiment of the present invention
7 is a generating step algorithm of the monitoring unit of the fishery management system according to the first embodiment of the present invention.
8 is a device diagram of a fish farm management system according to a second embodiment of the present invention.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예를 도면에 예시하고 이에 대해 상세한 설명에 상세하게 설명한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예를 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Since the present invention can apply various transformations and have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. Effects and features of the present invention, and methods for achieving them will become clear with reference to the embodiments described later in detail together with the drawings. However, it should be understood that the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms, and includes all modifications, equivalents, and substitutes included in the spirit and technical scope of the present invention.
설명에 앞서 상세한 설명에 기재된 용어에 대해 설명한다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, '포함하다' 또는 '가지다' 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. Prior to the description, the terms described in the detailed description will be described. In the following embodiments, terms such as first and second are used for the purpose of distinguishing one component from another component without limiting meaning. Accordingly, it goes without saying that the first element mentioned below may also be the second element within the technical spirit of the present invention. Also, expressions in the singular number include plural expressions unless the context clearly dictates otherwise. In addition, terms such as 'include' or 'have' mean that features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and that one or more other features or components are present. It does not preclude the possibility of being added.
또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.In addition, in the drawings, the size of components may be exaggerated or reduced for convenience of explanation. For example, since the size and thickness of each component shown in the drawings are arbitrarily shown for convenience of description, the present invention is not necessarily limited to the illustrated bar.
이하, 본 발명에 따른 실시예를 첨부된 도면을 참조하여 상세히 설명한다. 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성요소는 동일한 도면 부호를 부여하고 이에 대해 중복되는 설명은 생략한다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, the same or corresponding components are assigned the same reference numerals, and overlapping descriptions thereof will be omitted.
본 발명의 실시예에 따른 물양장 관리 시스템은, CCTV 카메라로 물양장의 입구 측을 촬영하는 실시간 촬영영상으로부터 딥러닝을 통해 선박을 검출하고, 위치정보 획득부를 통해 획득한 선박의 위치정보와 선박정보를 매칭하여 물양장의 입출항 선박을 관리하는 물양장 관리 시스템에 관한 것이다.In the wharf management system according to an embodiment of the present invention, a ship is detected through deep learning from a real-time video taken at the entrance of the wharf with a CCTV camera, and the ship's location information and ship information obtained through the location information acquisition unit are used. It is about a wharf management system that manages ships entering and leaving the wharf by matching.
도 1은 본 발명의 제1실시예에 따른 물양장 관리 시스템의 장치도이며, 도 2는 본 발명의 제1실시예에 따른 물양장 관리 시스템의 선박 식별부의 관계도이다.1 is a device diagram of a watershed management system according to a first embodiment of the present invention, and FIG. 2 is a relationship diagram of a vessel identification unit of the watershed management system according to a first embodiment of the present invention.
본 발명의 제1실시예에 따른 물양장 관리 시스템(1000)은, 선박 식별부(100)와, 위치정보 획득부(200)와, 데이터베이스(300) 및 모니터링부(400)를 포함한다.The
선박 식별부(100)는 물양장의 입구 측에 설치되는 촬영부(10)로부터 실시간 촬영 영상을 수신 및 분석하여 선박 이미지를 검출하는 구성이다. 본 실시예에서 촬영부(10)는 CCTV 카메라로 마련되어 입출항하는 선박들을 촬영한다.The
선박 식별부(100)는 CCTV 카메라로부터 촬영 영상을 RTSP(real-time streaming protocol) 통신으로 수신하여, 실시간 영상으로부터 선박 이미지를 검출한다. 선박 식별부(100)는 CCTV 영상 정보를 딥러닝 학습기반 영상 분석 기술로 심층 분석하여 영상 속의 객체를 선박으로 인식한다.The
선박 식별부(100)는 CNN(Convolutional Neural Network), RNN(Recurrent Neural Networks), R-CNN(Recurrent Convolutional Neural Network), Fast RCNN, 및 Faster RCNN(Region based Convolutional Neural Network), YOLO(You Only Look Once), SSD(Single Shot Detector) 알고리즘 중 어느 하나의 알고리즘을 사용하여 카메라 영상 내의 선박 이미지를 검출할 수 있으며, 본 실시예에서는 R-CNN 기반의 딥러닝 알고리즘을 사용한다.The
본 실시예에서는, 선박 이미지 검출을 위한 딥러닝 알고리즘은 인공 지능의 딥러닝 알고리즘 중 입력층/은닉층/출력층의 다층 구조의 컨볼루션 신경망(Conventional Neural Network, CNN) 알고리즘을 사용하였다.In this embodiment, the deep learning algorithm for ship image detection uses a convolutional neural network (CNN) algorithm having a multilayer structure of input layer/hidden layer/output layer among deep learning algorithms of artificial intelligence.
CNN은 하나 또는 여러 개의 합성곱 계층과 그 위에 올려진 인공 신경망 계층들로 구성되며, 가중치와 통합 계층(pooling layer)들을 추가로 활용하며, 이러한 구조 덕분에 CNN은 2차원 구조의 입력 데이터를 충분히 활용한다.CNN consists of one or several convolution layers and artificial neural network layers placed on top of them, and additionally utilizes weights and pooling layers. Thanks to this structure, CNN can sufficiently Utilize
카메라 입력 영상으로부터 입력층(input layer)/ n개의 은닉층(hidden layer)(Layer 1, Layer 2, Layer 3... )/ 출력층(output layer)을 포함하는 다층구조의 컨볼루션 신경망(CNN) 알고리즘은 CCTV 카메라 영상의 특징을 추출하고 분류하여 선박 이미지를 검출한다.Multi-layer convolutional neural network (CNN) algorithm including input layer/n hidden layers (Layer 1, Layer 2, Layer 3...)/output layer from camera input image detects ship images by extracting and classifying features of CCTV camera images.
다층구조의 합성곱 신경망(CNN)을 사용하여 Multilayer Perceptron을 통해 카메라 영상의 특징 추출(feature extraction)과 객체를 분류(classification)하여 객체(컨테이너, 차량, 사람, 양·적하 장비 등)를 검출한다.Detects objects (containers, vehicles, people, loading and unloading equipment, etc.) .
컨볼루션 신경망(CNN, Convolutional Neural Network)은 컨볼루셔널 층(Convolutional Layer), 풀링 층(Pooling Layer), FC 층(Fully Connected Layer, 완전연결층)을 포함하는 3개의 레이어가 사용된다.A convolutional neural network (CNN) uses three layers including a convolutional layer, a pooling layer, and a fully connected layer (FC layer).
CNN 알고리즘은 입력 영상에 가중치를 갖는 mask(예, 3x3 window)를 일정거리씩 이동해가며 컨볼루셔널 층(Convolutional Layer)과 풀링 층(Pooling Layer)에 의해 각각 convolution(합성곱)과 subsampling을 반복하여 영상의 데이터량을 줄이며 영상의 특징을 추출(feature extraction)하며, 컨볼루션에 의해 특징맵(feature map)을 추출하고, 신경망(Neural Network)에 의해 객체(사람, 선박 등)를 분류(classification)한다.The CNN algorithm moves a mask (e.g., a 3x3 window) with weights in the input image by a certain distance and repeats convolution and subsampling by a convolutional layer and a pooling layer, respectively. Reduces the amount of data in the image, extracts the feature of the image, extracts the feature map by convolution, and classifies the object (human, ship, etc.) by neural network do.
영상 처리시에, CNN 알고리즘에서, 컨볼루션(convolution)은 가중치(weight)를 갖는 마스크(예, 3x3 윈도우)를 사용하여 영상처리가 이루어지며, 입력 영상에 가중치를 갖는 마스크(예, 3x3 윈도우)를 이동해가며, 현재 입력 영상에 가중치를 갖는 마스크를 씌운 후 입력 영상의 픽셀값과 마스크의 가중치(weight)를 각각 곱한 후 그 합을 출력 영상의 픽셀값으로 정해진다.In image processing, in the CNN algorithm, convolution is performed using a mask (eg, 3x3 window) with weights, and the mask (eg, 3x3 window) with weights in the input image. While moving , a mask having a weight is applied to the current input image, pixel values of the input image are multiplied by the weight of the mask, and the sum is determined as the pixel value of the output image.
subsampling은 화면 크기를 줄이는 과정이며, 해당 영역의 최대치를 선택하는 max pooling을 사용한다.Subsampling is a process of reducing the screen size, and max pooling is used to select the maximum value of the corresponding area.
FC 층(Fully Connected Layer, 완전연결층)은 신경망의 입력단자에 연결시켜 학습(learning)에 의해 객체를 분류한다.The FC layer (Fully Connected Layer) classifies objects by learning by connecting them to the input terminal of the neural network.
현재 5층의 convolution layer와 3층의 fully_connected layer를 사용할 수 있다. 객체 추적을 학습하기 위해 객체 추적용 데이터베이스(300)를 사용하여 학습할 수있다.Currently, a 5-layer convolution layer and a 3-layer fully_connected layer can be used. In order to learn object tracking, the
컨볼루셔널 층(Convolutional Layer)의 출력은 Max-Pooling Layer에 의해 subsampling을 진행하여 image의 특징맵(feature map)의 사이즈가 줄여지며, Max-Pooling의 출력은 FC 층(Fully Connected Layer)에서 객체의 클래스를 분류한다.The output of the Convolutional Layer is subsampled by the Max-Pooling Layer to reduce the size of the feature map of the image, and the output of the Max-Pooling is an object in the FC layer (Fully Connected Layer). classify the class of
결과적으로, 드론 카메라의 영상 내의 객체들(사람, 선박 등)을 검출하고 각각의 객체의 특징 추출 및 분류를 위해 CNN 구조의 중간 몇 개의 컨볼루션 층(convolutional layer)에서 객체 위치영역과 종류 정보를 포함하는 특징맵(feature map)을 추출하고, Pooling layer를 통과함에 따라 특징맵의 크기가 작아지며 각각 다른 크기의 특징맵에서 객체 위치영역 정보를 추출하여 객체를 검출하여, FC 층(Fully Connected Layer, 완전 연결층)에 의해 선박 이미지를 분류(classification)한다.As a result, to detect objects (humans, ships, etc.) in the image of the drone camera, and to extract and classify the features of each object, the object location area and type information are obtained from several convolutional layers in the middle of the CNN structure. The size of the feature map is reduced as it passes through the pooling layer, and object location area information is extracted from feature maps of different sizes to detect objects, and the FC layer (Fully Connected Layer , fully connected layer) to classify the ship image.
R-CNN의 기본적인 구조는 입력 이미지에서 Selective Search라는 Region Proposal 생성 알고리즘을 사용하여, 객체가 존재할 것으로 추정되는 Region Proposal들을 추출한다. 각각의 Region Proposal들은 사각형 모양의 Bounding Box 안의 이미지 형태인데, 모든 Region Proposal들에 대하여 크기를 동일하게 만든 후 CNN을 거쳐 분류하는 작업을 수행한다.The basic structure of R-CNN extracts Region Proposals where objects are estimated to exist by using a Region Proposal generation algorithm called Selective Search from an input image. Each Region Proposal is in the form of an image in a rectangular Bounding Box, and after making all Region Proposals the same size, classification is performed through CNN.
선박 식별부(100)가 검출한 선박 이미지는 위치정보 획득부(200)가 수신한 선박의 위치 정보와 매칭된다.The ship image detected by the
위치정보 획득부(200)는 선박의 위치 정보를 포함한 선박 정보를 획득하기 위한 구성이다. 위치정보 획득부(200)는 선박에 장착된 선박자동식별장치 또는 어선위치발신장치로부터 선박의 위치정보를 수신한다.The location
선박자동식별장치(AIS : Automatic Identification System)는 선박 운항정보, 하만 보고를 위하여 선박 간 또는 육상과 정보를 교환하며 300톤 이상의 배에서는 의무적으로 사용하여야 하는 국제 표준시스템이다.AIS (Automatic Identification System) is an international standard system that exchanges information between ships or with land for ship operation information and port reports, and must be used on ships of 300 tons or more.
어선위치발신장치(V-pass)는 해양사고 발생 시 신속한 대응을 위해 어선의 위치 및 긴급구조신호를 발신하며, 선박안전조업규칙 제15조에 따라 어선의 출입항 신고를 자동으로 처리할 수 있는 장치이다. 어선용단말기는 GPS와 무선데이터모뎀이 결합된 형태의 장치로서 GPS로부터 수신된 어선의 위치를 897Mhz대의 수신기가 어선의 위치를 수신한 후 해당 데이터를 해양경찰로 보내며 해양경찰 상황실, 안전센터(파출소), 출장소 등의 전자해도 화면에 어선의 위치가 나타나 실시간 위치파악 등 안전관리를 할 수 있는 장치이다.The fishing vessel location transmitter (V-pass) is a device that transmits the position of the fishing vessel and emergency rescue signal for prompt response in the event of a marine accident, and can automatically process the report of the fishing vessel's entry and exit in accordance with Article 15 of the Ship Safety Operation Regulations. . The terminal for fishing boats is a device in the form of a combination of GPS and wireless data modem. The 897Mhz receiver receives the position of the fishing boat received from the GPS and sends the data to the Korea Coast Guard. ), the location of the fishing boat is displayed on the electronic chart screen of the branch office, etc., enabling safety management such as real-time positioning.
선박자동식별장치 및/또는 어선위치발신장치로부터 신호를 수신하여 선박의 위치정보를 획득할 수 있다. 이 때 어선위치발신장치는 선박 정보, 연락처 및 위치를 어선안전국의 '어산통합관리시스템', 수협 중앙회의 '어선안전조업 관리시스템'에서 모니터링하는 바 위와 같은 유관기관으로부터 신호를 수신할 수 있다.It is possible to obtain the location information of the vessel by receiving a signal from the automatic vessel identification device and/or the fishing vessel location transmitter. At this time, the fishing vessel positioning device can receive signals from related organizations such as the bar that monitors vessel information, contact information and location in the 'fisheries integrated management system' of the Fishing Boat Safety Bureau and the 'fishing vessel safety operation management system' of the National Federation of Fisheries Cooperatives.
즉, 위치정보 획득부(200)는 선박에 장착된 선박자동식별장치 또는 어선위치발신장치로부터 선박의 위치정보를 직/간접적으로 수신할 수 있다.That is, the location
또한, 위치정보 외에도 다양한 선박정보를 위치정보 획득부(200)로부터 수신한다. 이 선박 정보에는 MMSI(Maritime Mobile Service Identity, 해상 이동 업무 식별 부호), 선박명, 선박타입, 목적지, 항해 상태, 대지 속력 등을 포함할 수 있다.In addition to location information, various ship information is received from the location
데이터베이스(300)는 선박 이미지와 선박의 위치정보가 매칭된 정보와, 검지된 선박의 정보 및 선박 이미지를 저장한다.The
구체적으로, 데이터베이스(300)는 위치정보 획득부(200)로부터 각종 선박 정보를 TCP/IP 통신으로 수신하여 저장하고, 선박 정보를 TCP/IP 통신으로 선박 식별부(100)로 전송한다. 선박 식별부(100)는 검출한 선박 이미지와 수신한 선박 정보를 매칭하고, TCP/IP 통신으로 데이터베이스(300)에 저장한다.Specifically, the
또한, 선박 식별부(100)가 딥러닝 알고리즘을 사용하여 영상 분석을 통해 발생되는 데이터는 이미지 파일 형태로 데이터베이스(300)에 저장된다. 저장된 이미지 파일은 다시 촬영부(10)인 CCTV의 영상 분석을 위한 데이터셋으로 활용된다.In addition, data generated through image analysis by the
본 선박 식별부(100)는 R-CNN 기반의 딥러닝 알고리즘을 통해 객체(선박)을 검출하는 바 영상 이미지의 특징(feature)의 판단으로 검출한다. 이러한 특징 때문에 각도가 약간만 다를 경우 객체가 미인식/오인식이 나는 경우가 많다. 그러나 본 실시예에서 촬영부(10)는 복수 대가 다양한 각도로 영상을 촬영하며, 다양한 각도에 맞게 다양한 데이터 셋을 구축할 수 있다.The present
도 3 내지 도 5는 본 발명의 제1실시예에 따른 물양장 관리 시스템의 모니터링부의 모니터링 화면 예시이며, 도 6은 본 발명의 제1실시예에 따른 물양장 관리 시스템의 모니터링부의 모니터링 순서도이며, 도 7은 본 발명의 제1실시예에 따른 물양장 관리 시스템의 모니터링부의 생성단계 알고리즘이다.3 to 5 are examples of monitoring screens of the monitoring unit of the watershed management system according to the first embodiment of the present invention, and FIG. 6 is a monitoring flowchart of the monitoring unit of the watershed management system according to the first embodiment of the present invention. is an algorithm for the generation step of the monitoring unit of the watershed management system according to the first embodiment of the present invention.
모니터링부(400)는 물양장에 입출항하는 선박들을 모니터링하기 위한 구성이다.The
모니터링부(400)는 크게 지도 화면에 선박 정보를 표출하는 모니터링과, 실시간 관제 모니터링을 수행한다.The
지도 화면에 선박 정보를 표출하는 모니터링은, 물양장의 지도 데이터가 저장되는 지도 서버로부터 지도 데이터를 수신하고, 위치정보 획득부(200)로부터 수신한 선박의 최종 위치와 대응되는 지도 데이터 상의 지점에 선박 이미지를 표시하며, 선박 이미지를 클릭 시 선박의 정보를 로딩하여 디스플레이 상에 표시한다.Monitoring displaying ship information on the map screen receives map data from the map server where the map data of the wharf is stored, and locates the ship at a point on the map data corresponding to the final position of the ship received from the location
구체적으로, 모니터링부(400)는 지도 화면에 선박 정보를 표출하는 모니터링 수행 시, 로딩단계, 아이콘 표시단계, 생성단계, 디스플레이 단계를 실행한다.Specifically, the
로딩 단계는 지도 데이터를 수신하여 물양장 지도 데이터를 로딩하는 단계이다. 즉, 지도 서버에는 물양장의 지도 데이터가 저장되며, 이 지도 데이터를 로딩한다.The loading step is a step of receiving map data and loading fish farm map data. That is, the map data of the fish farm is stored in the map server, and the map data is loaded.
그리고, 지도 데이터 상에 촬영부(10) 설치 위치에 대응되는 영역에 카메라 아이콘을 표시한다.Then, a camera icon is displayed on the map data in an area corresponding to the location where the photographing
이 때, 물양장의 입구에 설치되는 CCTV인 촬영부(10) 외에도, 물양장 내부를 촬영하는 다른 카메라들의 설치 위치에도 카메라 아이콘을 표시할 수 있다.At this time, in addition to the
생성단계는 선박위치 갱신 스레드와 미등록 선박 확인 스레드를 생성하는 단계이다.The creation step is a step of creating a vessel location update thread and an unregistered vessel confirmation thread.
선박위치 갱신 스레드 실행 시 위치정보 획득부(200)로부터 수신한 선박의 최종 위치와 대응되는 지도 데이터 상의 지점에 선박 이미지를 표시한다. 스레드 종료 이벤트가 수신되면 스레드가 종료되며, 수신되지 않는 경우 선박들의 최근 위치 정보를 수신하며 최종 위치에 선박 이미지를 표시한다.When the ship location update thread is executed, a ship image is displayed at a point on the map data corresponding to the final location of the ship received from the location
미등록 선박 확인 스레드 실행 시 미등록 선박의 접근 정보를 표시한다.Displays the access information of unregistered vessels when the unregistered vessel verification thread is executed.
디스플레이 단계는 사용자가 선박 이미지를 클릭 시 선박의 정보를 로딩하여 디스플레이 상에 표시한다.In the display step, when the user clicks the ship image, ship information is loaded and displayed on the display.
지도 이미지 상에 위치정보 획득부(200) 등으로부터 수신되는 정보들의 리스트를 표시하고, 사용자가 어느 하나의 선박 이미지를 클릭하는 경우 해당 선박의 위 정보들을 표시한다.A list of information received from the location
실시간 관제 모니터링은 촬영부(10)가 촬영한 촬영 영상에 선박을 표시하는 이미지와, 선박의 정보를 오버레이하여, 실시간 영상을 기반으로 선박 정보 표출 및 시스템 운영 상 발생되는 시스템 또는 네트워크 오류 등을 사용자가 실시간으로 확인할 수 있도록 촬영부(10)의 촬영 영상을 관제한다.Real-time control monitoring overlays the image displaying the ship and ship information on the captured image taken by the photographing
촬영부(10)로부터 촬영 영상을 RTSP로 수신받아 선박 입출항 및 주변 영상을 실시간으로 표출한다.It receives the captured image from the photographing
그리고 데이터베이스(300)로부터 선박 정보(위치정보 획득부(200)로부터 데이터베이스(300)로 전송됨)를 수신하여, 선박 정보를 실시간 영상에 오버레이 하여 함께 표출되도록 한다.Then, ship information (transmitted from the location
다음으로 본 발명의 제2실시예에 따른 물양장 관리 시스템(1000)에 대해 설명한다.Next, the
도 8은 본 발명의 제2실시예에 따른 물양장 관리 시스템의 장치도이다.8 is a device diagram of a fish farm management system according to a second embodiment of the present invention.
본 발명의 제2실시예에 따른 물양장 관리 시스템(1000)은, 선박 식별부(100)와, 위치확인 검출부와, 데이터베이스(300)와, 모니터링부(400)와, 문자인식부(500) 및 드론(600)을 포함한다. 문자인식부(500)와 드론(600)을 제외한 구성은 제1실시예와 동일한 바 중복 설명은 생략한다.The
문자인식부(500)와 드론(600)은 선박의 정보를 파악할 수 없는 경우 선박을 인식하기 위한 구성이다.The
문자인식부(500)는 선박자동식별장치 또는 어선위치발신장치로부터 선박의 위치정보가 수신되지 않는 경우, 촬영 영상을 분석하여 선박에 표시된 문자를 인식하여 선박명을 인지하는 구성이다.The
위치정보 획득부(200)로부터 선박의 위치정보 외에도 다양한 선박 정보들을 수신한다. 모니터링을 위해서는 선박의 위치정보 외에도 선박명 등의 정보들이 필요한데, 위치정보 획득부(200)로부터 정보가 수신되지 않는 경우, 선박의 위치, 선박명 등의 파악이 필요하다.In addition to ship location information, various ship information is received from the location
어선위치발신장치 설치 제외 어선으로는, 무동력선, 「내수면어업법」에 따른 내수면어업에 종사하는 어선, 수산업에 관한 시험·조사·지도·단속에 종사하는 어선, 「수산업법」제8조에 따른 면허어업에 사용하기 위하여 같은 법 제27조 제1항, 제3항에 따라 관리선으로 지정받거나 승인받은 어선(다만, 「낚시 관리 및 육성법」에 따른 낚시어선은 제외한다.), 「선박안전 조업규칙」제5조제2항제2호에 따른 서해특정해역에서 「수산업법 시행령」제24조제1항제111호에 따른 근해자망어업에 종사하는 어선의 부속선, 2톤 미만의 어선으로서 상갑판이 없이 현단으로만 이루어져 있거나, 상갑판 상부에 구조물이 없는 어선 등이다. 이러한 어선에는 위치정보 획득부(200)를 통한 위치정보, 선박정보의 획득이 불가능하다.Fishing vessels excluding the installation of a fishing vessel location transmitter include non-powered boats, fishing boats engaged in inland water fishing under the 「Inland Water Fisheries Act」, fishing boats engaged in testing, investigation, guidance and regulation related to the fishery industry, and licensed fishing under Article 8 of the 「Fishing Industry Act」 Fishing boats designated or approved as management vessels pursuant to Article 27 Paragraphs 1 and 3 of the same Act (however, fishing boats under the 「Fishing Management and Promotion Act」 are excluded), 「Ship Safety Fishing Regulations」 」 A fishing boat attached to a fishing vessel engaged in inshore gillnet fishing pursuant to Article 24 (1) 111 of the 「Enforcement Decree of the Fisheries Act」 in a specific area of the West Sea pursuant to Article 5 (2) 2, a fishing boat of less than 2 tons, without an upper deck, only on the side end. or a fishing boat without a structure on the upper deck. It is impossible to acquire location information and ship information through the location
이에 문자인식부(500)는 촬영부(10)의 촬영 영상을 수신하여 문자를 인식함으로써 선박명을 판독하는 구성이다. Accordingly, the
선박에는 선미 좌·우, 후면에 선명을 표기하고 있으므로, 촬영부(10)의 촬영 영상을 수신하여 문자를 인식함으로써 선박명을 판독한다.Since the name of the ship is marked on the left, right, and rear of the stern, the ship name is read by receiving the captured image of the photographing
그리고, 드론(600)은 촬영부(10)의 촬영영역 상에 위치한다. 즉, 드론(600)은 촬영부(10)의 촬영영역에 대응하는 지점의 상공에서 비행한다. 드론(600)의 비행좌표는 데이터베이스(300)로 전송되며 드론(600)의 좌표로부터 선박의 위치정보를 알 수 있다.And, the
즉, 촬영부(10)가 촬영하는 영역 내로 선박이 들어오면, 문자인식부(500)가 선박명을 분석하고, 드론(600)의 위치정보가 선박의 위치정보가 되므로 드론(600)의 비행좌표를 통해 선박의 위치정보를 알 수 있다.That is, when a ship enters the area photographed by the photographing
따라서 본 발명에 의하면, CCTV 카메라로 물양장의 입구 측을 촬영하는 실시간 촬영영상으로부터 딥러닝을 통해 선박을 검출하고, 위치정보 획득부를 통해 획득한 선박의 위치정보와 선박정보를 매칭하여 물양장의 입출항 선박을 관리하는 물양장 관리 시스템이 제공된다.Therefore, according to the present invention, a ship is detected through deep learning from a real-time video taken at the entrance of the wharf by a CCTV camera, and the ship's location information obtained through the location information acquisition unit is matched with the ship information to enter and depart the wharf. A fish farm management system for managing is provided.
본 발명에서 모든 예들 또는 예시적인 용어(예를 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한 해당 기술 분야의 통상의 기술자는 다양한 수정, 조합 및 변경이 부가된 청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터(factor)에 따라 구성될 수 있음을 알 수 있다.The use of all examples or exemplary terms (eg, etc.) in the present invention is simply to explain the present invention in detail, and the scope of the present invention is limited due to the examples or exemplary terms unless limited by the claims. it is not going to be In addition, those skilled in the art will know that various modifications, combinations and changes can be made according to design conditions and factors within the scope of the appended claims or equivalents thereof.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 청구범위 뿐만 아니라, 이 청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments and should not be determined, and not only the claims described later, but also all ranges equivalent to or equivalent to these claims are within the scope of the spirit of the present invention. would be said to belong.
1000, 2000 : 물양장 관리 시스템
100 : 선박 식별부
200 : 위치정보 획득부
300 : 데이터 베이스
400 : 모니터링부
500 : 문자인식부
600 : 드론1000, 2000 : Fish farm management system
100: vessel identification unit 200: location information acquisition unit
300: database 400: monitoring unit
500: text recognition unit 600: drone
Claims (6)
선박에 장착된 선박자동식별장치 또는 어선위치발신장치로부터 선박의 위치정보를 수신하는 위치정보 획득부;
상기 선박 이미지와 상기 선박의 위치정보가 매칭된 정보와, 검지된 상기 선박의 정보를 저장하고, 상기 선박 이미지를 저장하는 데이터베이스; 및
상기 데이터베이스로부터 상기 선박의 입출항 정보, 정박 정보를 확인하여 모니터링하며, 상기 데이터베이스에 저장된 상기 선박의 정보를 로딩하여 확인 가능하며, 상기 선박의 이벤트 정보를 분석하는 모니터링부;를 포함하며,
상기 모니터링부는,
물양장의 지도 데이터가 저장되는 지도 서버로부터 상기 지도 데이터를 수신하고, 상기 위치정보 획득부로부터 수신한 선박의 최종 위치와 대응되는 상기 지도 데이터 상의 지점에 상기 선박 이미지를 표시하며, 상기 선박 이미지를 클릭 시 상기 선박의 정보를 로딩하여 디스플레이 상에 표시하는 물양장 관리 시스템.
A vessel identification unit for detecting a vessel image by receiving and analyzing a real-time captured image from a recording unit installed at the entrance of a fish farm;
A location information acquisition unit for receiving location information of a ship from an automatic vessel identification device or a fishing vessel location transmitter mounted on the vessel;
a database for storing information in which the ship image and location information of the ship are matched and information of the detected ship, and storing the ship image; and
A monitoring unit that checks and monitors the vessel's arrival and departure information and anchorage information from the database, loads and checks the vessel information stored in the database, and analyzes the vessel's event information;
The monitoring unit,
The map data is received from the map server where the map data of the marina is stored, the ship image is displayed at a point on the map data corresponding to the final position of the ship received from the location information acquisition unit, and the ship image is clicked. A wharf management system that loads information on the vessel and displays it on a display.
상기 선박자동식별장치 또는 어선위치발신장치로부터 선박의 위치정보가 수신되지 않는 경우, 상기 촬영 영상을 분석하여 선박에 표시된 문자를 인식하여 선박명을 인지하는 문자 인식부;
상기 촬영부의 촬영 지점 상의 좌표를 획득하는 드론;을 더 포함하며,
상기 모니터링부는 상기 드론으로부터 상기 촬영 지점의 좌표 정보를 수신하는 물양장 관리 시스템.
According to claim 1,
a character recognition unit for recognizing a ship name by analyzing the captured image and recognizing characters displayed on the ship, when the vessel location information is not received from the automatic vessel identification device or the fishing vessel location transmitter;
It further includes; a drone that acquires coordinates on the photographing point of the photographing unit,
The monitoring unit receives the coordinate information of the shooting point from the drone.
상기 선박 식별부는,
딥러닝 알고리즘을 사용하여 영상 분석을 통해 선박 이미지를 검출하며,
상기 딥러닝 알고리즘을 통해 발생되는 데이터는 이미지 파일 형태로 상기 데이터베이스에 저장되는 물양장 관리 시스템.
According to claim 1,
The vessel identification unit,
Using a deep learning algorithm to detect ship images through image analysis,
Data generated through the deep learning algorithm is stored in the database in the form of an image file.
상기 문자 인식부는,
복수 대의 상기 촬영부의 촬영 영상을 각각 서로 다른 배율로 확대하여 분석하며, 상기 선박에 표시된 문자가 데이터 라벨링된 자료가 저장되는 물양장 관리 시스템.
According to claim 2,
The character recognition unit,
The wharf management system in which the captured images of the plurality of photographing units are enlarged and analyzed at different magnifications, and the data labeled with the characters displayed on the ship are stored.
상기 모니터링부는,
상기 지도 데이터를 수신하여 물양장 지도 데이터를 로딩하는 단계;
상기 촬영부 설치 위치에 대응되는 영역에 카메라 아이콘을 표시하는 단계;
선박위치 갱신 스레드와 미등록 선박 확인 스레드를 생성하는 단계;를 수행하며,
상기 선박위치 갱신 스레드 실행 시 상기 위치정보 획득부로부터 수신한 선박의 최종 위치와 대응되는 상기 지도 데이터 상의 지점에 상기 선박 이미지를 표시하며,
상기 미등록 선박 확인 스레드 실행 시 미등록 선박의 접근 정보를 표시하며,
상기 선박 이미지를 클릭 시 상기 선박의 정보를 로딩하여 당시 디스플레이 상에 표시하는 물양장 관리 시스템.
According to claim 1,
The monitoring unit,
receiving the map data and loading fish farm map data;
displaying a camera icon in an area corresponding to the installation location of the photographing unit;
Creating a vessel location update thread and an unregistered vessel confirmation thread;
When the ship location update thread is executed, the ship image is displayed at a point on the map data corresponding to the final location of the ship received from the location information acquisition unit;
When the unregistered vessel confirmation thread is executed, the access information of the unregistered vessel is displayed,
When the ship image is clicked, the ship's information is loaded and displayed on the display at the time.
상기 모니터링부는,
상기 위치정보 획득부로부터 수신된 정보를 기반으로 상기 촬영 영상에 선박을 표시하는 이미지와 상기 선박의 정보를 오버레이하는 물양장 관리 시스템.
According to claim 1,
The monitoring unit,
A marina management system for overlaying an image displaying a ship and information of the ship on the captured image based on the information received from the location information acquisition unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210134497A KR20230051012A (en) | 2021-10-08 | 2021-10-08 | Management system of lighters wharf |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210134497A KR20230051012A (en) | 2021-10-08 | 2021-10-08 | Management system of lighters wharf |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230051012A true KR20230051012A (en) | 2023-04-17 |
Family
ID=86128027
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210134497A KR20230051012A (en) | 2021-10-08 | 2021-10-08 | Management system of lighters wharf |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230051012A (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102096746B1 (en) | 2019-09-03 | 2020-04-03 | 주식회사 스마트엠투엠 | System and method for gate management for harbor security based on blockchain |
KR102137380B1 (en) | 2019-11-05 | 2020-07-24 | 에이원커뮤니케이션즈코리아(주) | Management system of smart harbor |
KR102206662B1 (en) | 2020-08-14 | 2021-01-22 | 아이티플래닛 주식회사 | Vision camera system to manage an entrance and exit management of vehicles and to recognize objects of camera video data in a port container terminal and method thereof |
-
2021
- 2021-10-08 KR KR1020210134497A patent/KR20230051012A/en not_active Application Discontinuation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102096746B1 (en) | 2019-09-03 | 2020-04-03 | 주식회사 스마트엠투엠 | System and method for gate management for harbor security based on blockchain |
KR102137380B1 (en) | 2019-11-05 | 2020-07-24 | 에이원커뮤니케이션즈코리아(주) | Management system of smart harbor |
KR102206662B1 (en) | 2020-08-14 | 2021-01-22 | 아이티플래닛 주식회사 | Vision camera system to manage an entrance and exit management of vehicles and to recognize objects of camera video data in a port container terminal and method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109409283B (en) | Method, system and storage medium for tracking and monitoring sea surface ship | |
US11900668B2 (en) | System and method for identifying an object in water | |
US7889232B2 (en) | Method and system for surveillance of vessels | |
CN109725310B (en) | Ship positioning supervision system based on YOLO algorithm and shore-based radar system | |
CN108806334A (en) | A kind of intelligent ship personal identification method based on image | |
KR101805564B1 (en) | Alarm system for prevent ship collision and method thereby | |
US20130163822A1 (en) | Airborne Image Capture and Recognition System | |
CN111163290B (en) | Method for detecting and tracking night navigation ship | |
CN113361942A (en) | Marine vessel commanding and dispatching method, system, computer equipment and storage medium | |
KR20210090572A (en) | Device and method for monitoring a berthing | |
Bloisi et al. | Camera based target recognition for maritime awareness | |
CN110515378A (en) | A kind of intelligent Target searching method applied to unmanned boat | |
CN112085642A (en) | Harbor management method, harbor management system, computer device, and storage medium | |
US8275172B2 (en) | Multipass data integration for automatic detection and classification of objects | |
CN113822217A (en) | Ship tail gas monitoring method based on AIS and video image analysis | |
JP5218072B2 (en) | Entry / exit management system, processing method, entry / exit management device, and program | |
CN115187936B (en) | Monitoring system and method for preventing offshore platform from climbing | |
KR20230051012A (en) | Management system of lighters wharf | |
KR20230052576A (en) | Monitoring system of lighters wharf | |
KR102479959B1 (en) | Artificial intelligence based integrated alert method and object monitoring device | |
Bloisi et al. | Integrated visual information for maritime surveillance | |
WO2023275544A1 (en) | Methods and systems for detecting vessels | |
CN113705503A (en) | Abnormal behavior detection system and method based on multi-mode information fusion | |
CN111918032B (en) | Unmanned ship-based overwater supervision method, system, device and intelligent equipment | |
Bereta et al. | Vessel detection using image processing and neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
N231 | Notification of change of applicant |