KR20230097958A - Apparatus for monitoring illegal fishing based on artificial neural network and method therefor - Google Patents
Apparatus for monitoring illegal fishing based on artificial neural network and method therefor Download PDFInfo
- Publication number
- KR20230097958A KR20230097958A KR1020220039859A KR20220039859A KR20230097958A KR 20230097958 A KR20230097958 A KR 20230097958A KR 1020220039859 A KR1020220039859 A KR 1020220039859A KR 20220039859 A KR20220039859 A KR 20220039859A KR 20230097958 A KR20230097958 A KR 20230097958A
- Authority
- KR
- South Korea
- Prior art keywords
- area
- image vector
- box
- ship
- information
- Prior art date
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 81
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 24
- 238000000034 method Methods 0.000 title claims description 22
- 239000013598 vector Substances 0.000 claims abstract description 126
- 238000012545 processing Methods 0.000 claims abstract description 46
- 238000003384 imaging method Methods 0.000 claims abstract description 39
- 230000010365 information processing Effects 0.000 claims abstract description 38
- 238000005259 measurement Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 4
- 238000012806 monitoring device Methods 0.000 description 17
- 239000010410 layer Substances 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000003860 storage Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Human Resources & Organizations (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Primary Health Care (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Educational Administration (AREA)
- Development Economics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
불법 어업을 감시하기 위한 장치는 선박에 장착된 식별장치로부터 상기 식별장치의 식별정보, 위치정보 및 시간정보를 지속적으로 수신하고, 복수의 영상장치로부터 복수의 감시영상을 수신하면, 수신된 복수의 감시영상 중 상기 시간정보 및 상기 위치정보에 대응하는 감시영상을 검출한 후, 검출된 감시영상을 정규화하여 감시영상벡터를 생성하는 데이터처리부와, 학습된 가중치를 가지는 인공신경망인 식별모델을 이용하여 감시영상벡터로부터 선박이 차지하는 영역을 특정하면서 선박이 조업상태인지 혹은 비조업상태인지 여부를 나타내는 하나 이상의 영역상자를 도출하고, 도출된 영역상자를 포함하는 출력영상벡터를 도출하는 식별부와, 출력영상벡터(OV)에 포함된 하나 이상의 영역상자 중 상기 식별장치의 상기 위치정보에 대응하는 영역상자를 검출하고, 검출된 영역상자를 통해 선박이 조업상태인지 혹은 비조업상태인지 여부를 확인하여 선박의 불법조업 여부를 판별하는 정보처리부를 포함한다. A device for monitoring illegal fishing continuously receives identification information, location information, and time information of the identification device from an identification device mounted on a ship, and when a plurality of monitoring images are received from a plurality of imaging devices, a plurality of received After detecting the surveillance image corresponding to the time information and the location information among the surveillance images, a data processing unit that normalizes the detected surveillance images to generate surveillance image vectors, and an identification model, which is an artificial neural network having learned weights, is used. An identification unit for deriving one or more region boxes indicating whether the ship is in an operating state or a non-operating state while specifying an area occupied by the ship from the surveillance image vector, and deriving an output image vector including the derived region box; Among one or more area boxes included in the image vector (OV), an area box corresponding to the location information of the identification device is detected, and whether the ship is operating or not operating is confirmed through the detected area box. Includes an information processing unit that determines whether or not illegal fishing of
Description
본 발명은 불법 어업 감시 기술에 관한 것으로, 보다 상세하게는, 인공신경망 기반의 불법 어업을 감시하기 위한 장치 및 이를 위한 방법에 관한 것이다. The present invention relates to a technology for monitoring illegal fishing, and more particularly, to a device and method for monitoring illegal fishing based on an artificial neural network.
수산자원은 전통적으로 무주물로 인식되어 있기 때문에 선점논리에 의해 무분별하게 개발되었고, 수산물 증산정책에 집중된 국가의 어업관리업무는 자원의 보존·관리보다는 어업조정과 어업질서 유지에만 집중되어 온 것이 사실이다. 그 결과 우리나라의 연근해어업은 자원감소, 어장축소, 어장환경의 오염, 과도한 어선세력, 어업경비의 급증 등으로 인하여 산업적 기반이 붕괴될 위기에 직면해 있다고 해도 과언이 아니다. 이와 같이 수산업 경영환경이 극도로 악화된 원인은 국제어업질서의 변화에 따른 어장의 축소, 수산업의 환경 변화에 탄력적으로 대응하지 못한 어업허가제도의 원천적 결함, 어업인의 무분별한 어획경쟁과 과잉투자 등에 기인하기도 하지만, 최소한의 자원보존조치 마저도 무시하는 불법어업에 기인하는 바 크다고 할 수 있다. Since fishery resources are traditionally recognized as non-maintenance items, they have been developed indiscriminately by the logic of preoccupation, and the fact is that the government's fisheries management tasks focused on the policy of increasing aquatic products production have focused only on fishery coordination and maintenance of fishery order rather than conservation and management of resources. am. As a result, it is not an exaggeration to say that Korea's coastal fishing industry is facing the risk of collapse of its industrial base due to resource reduction, fishing ground reduction, pollution of the fishing ground environment, excessive fishing boat power, and rapid increase in fishing expenses. The reasons for the extremely deteriorating business environment of the fishery industry are the reduction of fishing grounds due to changes in the international fishery order, the original defect of the fishery permit system that did not flexibly respond to changes in the environment of the fishery industry, and the reckless competition and excessive investment by fishermen. However, it can be said that it is largely due to illegal fishing that ignores even the minimum resource conservation measures.
불법어업을 근절하기 위하여 정부차원에서 유관기관과 공동으로 단속할 뿐만 아니라, 어업자 스스로 준법어업을 이행하도록 홍보하고 있으나, 불법어업이 단순한 법규적 문제가 아니라, 생계유지적인 측면과 불법어업이 갖는 경제적 측면 및 사회구조적 측면이 복합적으로 작용하고 있기 때문에 좀처럼 근절되지 않고 있다.In order to eradicate illegal fishing, the government not only cracks down with related organizations, but also promotes fishermen to practice law-abiding fishing. It is seldom eradicated because the aspects of social structure and social structure are working in a complex way.
불법어업의 형태를 보면, 법률에서 허용되지 않는 방법으로 행하는 어업, 어업허가나 면허를 받지 아니하고 행하는 어업, 어업허가 또는 면허를 받은 어업자가 허가 또는 면허의 내용과 다른 어선, 어구, 어법으로 행하는 어업 등으로 대별할 수 있다. 이러한 불법어업은 어업질서를 문란하게 할 뿐만 아니라, 자원보호에 악영향을 미치며, 정부의 어업정책 수행을 방해하는 등 사회적으로 미치는 파급효과는 매우 크다고 할 것이다. In terms of the types of illegal fishing, fishing conducted in a method not permitted by law, fishing conducted without obtaining a fishing permit or license, fishing conducted by a fisherman who has obtained a fishing permit or license using a fishing boat, fishing gear, or fishing method that is different from the contents of the permit or license etc. can be distinguished. Such illegal fishing not only disturbs the fishery order, but also adversely affects the protection of resources and hinders the implementation of the government's fisheries policy.
따라서 상술한 바와 같은 점을 감안한 본 발명은 목적은 인공신경망 기반의 불법 어업을 감시하기 위한 장치 및 이를 위한 방법을 제공함에 있다. Therefore, in view of the above points, an object of the present invention is to provide a device and method for monitoring illegal fishing based on an artificial neural network.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 불법 어업을 감시하기 위한 장치는 선박에 장착된 식별장치로부터 상기 식별장치의 식별정보, 위치정보 및 시간정보를 지속적으로 수신하고, 복수의 영상장치로부터 복수의 감시영상을 수신하면, 수신된 복수의 감시영상 중 상기 시간정보 및 상기 위치정보에 대응하는 감시영상을 검출한 후, 검출된 감시영상을 정규화하여 감시영상벡터를 생성하는 데이터처리부와, 학습된 가중치를 가지는 인공신경망인 식별모델을 이용하여 감시영상벡터로부터 선박이 차지하는 영역을 특정하면서 선박이 조업상태인지 혹은 비조업상태인지 여부를 나타내는 하나 이상의 영역상자를 도출하고, 도출된 영역상자를 포함하는 출력영상벡터를 도출하는 식별부와, 출력영상벡터(OV)에 포함된 하나 이상의 영역상자 중 상기 식별장치의 상기 위치정보에 대응하는 영역상자를 검출하고, 검출된 영역상자를 통해 선박이 조업상태인지 혹은 비조업상태인지 여부를 확인하여 선박의 불법조업 여부를 판별하는 정보처리부를 포함한다. A device for monitoring illegal fishing according to a preferred embodiment of the present invention for achieving the above object continuously receives identification information, location information and time information of the identification device from an identification device mounted on a ship, When a plurality of monitoring images are received from a plurality of imaging devices, monitoring images corresponding to the time information and location information are detected from among the plurality of monitoring images received, and then the detected monitoring images are normalized to generate a monitoring image vector. By using the data processing unit and the identification model, which is an artificial neural network having learned weights, the area occupied by the vessel is specified from the surveillance image vector, and one or more area boxes indicating whether the vessel is in operation or non-operation are derived and derived. an identification unit for deriving an output image vector including an area box of the detected region; and detecting a region box corresponding to the location information of the identification device among one or more region boxes included in the output image vector (OV), and detecting the detected region box. It includes an information processing unit that determines whether the vessel is illegally fishing by checking whether the vessel is in an operating state or a non-fishing state through
상기 식별모델은 상기 감시영상벡터를 복수의 셀로 구분한 후, 하나 이상의 영역상자를 도출하며, 상기 영역상자는 중심 좌표 및 상기 중심 좌표를 기준으로 폭과 높이를 나타내는 영역상자의 좌표, 상기 영역상자가 차지하는 영역이 상기 선박이 존재하는 영역과 일치하는 비율을 나타내는 신뢰도 및 상기 영역상자 내의 객체가 선박의 조업 상태를 나타내는 제1 클래스에 속할 확률 및 선박의 비조업상태를 나타내는 제2 클래스에 속할 확률을 포함하는 분류값을 포함한다. The identification model divides the surveillance image vector into a plurality of cells and then derives one or more region boxes. Confidence indicating the rate at which the area occupied by corresponds to the area where the ship exists, and the probability that the object in the area box belongs to the first class representing the operating state of the ship and the probability that it belongs to the second class representing the non-operating state of the ship Includes a classification value that includes
상기 정보처리부는 상기 하나 이상의 영역상자 내의 선박의 위치정보를 산출하고, 상기 하나 이상의 영역상자 중 상기 식별장치의 위치정보와 가장 근접한 선박의 위치정보를 가지는 영역상자를 검출하는 것을 특징으로 한다. The information processing unit is characterized in that the information processing unit calculates ship position information in the one or more region boxes, and detects the region box having the ship position information closest to the position information of the identification device among the one or more region boxes.
상기 정보처리부는 상기 영상장치를 기준으로 상기 영역상자의 선박에 대한 방향각 및 상기 영역상자의 선박과의 거리를 산출하고, 상기 영상장치의 위치정보를 기준으로 상기 방향각 및 상기 거리에 따라 상기 영역상자 내의 선박의 위치정보를 도출하는 것을 특징으로 한다. The information processing unit calculates the direction angle of the area box with respect to the ship and the distance of the area box from the ship based on the imaging device, and calculates the direction angle and the distance based on the location information of the imaging device. It is characterized in that the location information of the ship in the area box is derived.
상기 정보처리부는 수학식 , 에 따라 상기 방향각을 산출하고, 수학식 에 따라 상기 거리를 산출한다. The information processing unit Equation , Calculate the orientation angle according to the equation Calculate the distance according to
여기서, 상기 는 수평 방향의 방향각이고, 상기 는 수직 방향의 방향각이고, 상기 d는 거리이고, 상기 X는 출력영상벡터의 중심좌표 중 수평 방향의 좌표이고, 상기 Y는 출력영상벡터의 중심좌표 중 수직 방향의 좌표이고, 상기 x는 영역상자의 중심좌표 중 수평 방향의 좌표이고, 상기 y는 영역상자의 중심좌표 중 수직 방향의 좌표이고, 상기 는 영상장치의 카메라모듈의 초점 거리인 것을 특징으로 한다. here, above is the orientation angle in the horizontal direction, and is a direction angle in the vertical direction, d is a distance, X is a coordinate in the horizontal direction among the coordinates of the center of an output image vector, Y is a coordinate in the vertical direction among the coordinates of the center of an output image vector, and x is an area is the coordinate in the horizontal direction among the coordinates of the center of the box, y is the coordinate in the vertical direction among the coordinates of the center of the area box, Is the focal length of the camera module of the imaging device.
상기 정보처리부는 상기 제1 클래스에 속할 확률이 소정 임계치 이상이면서 상기 제2 클래스에 속할 확률이 보다 높으면, 상기 영역상자의 선박이 조업상태인 것으로 판단하고, 상기 제2 클래스에 속할 확률이 소정 임계치 이상이면서 상기 제1 클래스에 속할 확률이 보다 높으면, 상기 영역상자의 선박이 비조업상태인 것으로 판단하는 것을 특징으로 한다. If the probability of belonging to the first class is greater than a predetermined threshold and the probability of belonging to the second class is higher, the information processing unit determines that the ship in the area box is in an operating state, and the probability of belonging to the second class exceeds a predetermined threshold. If the probability of belonging to the first class is higher than the above, it is characterized in that it is determined that the vessel of the area box is in a non-operational state.
상기 데이터처리부는 상기 식별정보가 지시하는 선박에 대해 조업이 허가된 영역을 나타내는 허가 영역 및 해당 허가 영역에서 조업이 허가된 시간을 나타내는 허가 시간을 포함하는 조업정보를 추출하고, 상기 식별장치의 상기 위치정보 및 상기 시간정보가 조업정보의 허가 영역 및 허가 시간에 부합하지 않는 경우, 상기 시간정보 및 상기 위치정보에 대응하는 감시영상을 검출하는 것을 특징으로 한다. The data processing unit extracts operation information including a permitted area indicating an area in which operation is permitted for the vessel indicated by the identification information and a permitted time indicating a permitted time for operation in the permitted area, and When the location information and the time information do not conform to the permitted area and permitted time of the operation information, a monitoring image corresponding to the time information and the location information is detected.
상기 데이터처리부는 수학식 에 따라 상기 감시영상의 명도를 조절하고, 수학식 에 따라 상기 감시영상벡터를 생성한다. The data processing unit Equation Adjust the brightness of the surveillance image according to the equation The surveillance image vector is generated according to the above.
여기서, 상기 u 및 상기 v는 픽셀 좌표이고, 상기 는 명도가 조절된 감시영상의 픽셀값이고, 상기 는 감시영상의 픽셀값이고, 상기 m은 감시영상의 평균 픽셀값이고, 상기 q는 감시영상의 픽셀값의 표준 편차이고, 상기 는 명암대비 지수이고, 상기 는 명도가 조절된 감시영상의 평균 픽셀값이고, 상기 는 감시영상벡터의 픽셀값인 것을 특징으로 한다. Here, the u and the v are pixel coordinates, and the Is a pixel value of the surveillance image whose brightness is adjusted, is the pixel value of the surveillance image, m is the average pixel value of the surveillance image, q is the standard deviation of the pixel values of the surveillance image, is the contrast index, and Is the average pixel value of the surveillance image whose brightness is adjusted, is a pixel value of a surveillance image vector.
상기 장치는 학습용 감시영상벡터 및 학습용 감시영상벡터에 대응하는 실측영상벡터를 마련하고, 상기 학습용 감시영상벡터를 학습이 완료되지 않은 식별모델에 입력한 후, 식별모델이 상기 학습용 감시영상벡터에 대해 복수의 계층 간 학습이 완료되지 않은 가중치를 적용한 복수의 연산을 수행하여 학습용 출력영상벡터를 포함하는 출력영상벡터를 생성하면, 손실함수를 통해 생성된 출력영상벡터와 상기 실측영상벡터 간의 차이를 나타내는 전체 손실을 산출하고, 전체 손실이 최소가 되도록 손실모델의 가중치를 수정하는 최적화를 수행하는 학습부를 더 포함한다. The apparatus prepares a surveillance video vector for learning and a measured video vector corresponding to the surveillance video vector for learning, inputs the surveillance video vector for learning to an identification model whose learning has not been completed, and then the identification model determines the surveillance video vector for learning. When an output image vector including an output image vector for learning is generated by performing a plurality of operations applying weights for which learning between a plurality of layers is not completed, the difference between the output image vector generated through the loss function and the measured image vector is represented. A learning unit that calculates a total loss and performs optimization of correcting weights of the loss model so that the total loss is minimized is further included.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 불법 어업을 감시하기 위한 방법은 데이터처리부가 선박에 장착된 식별장치로부터 상기 식별장치의 식별정보, 위치정보 및 시간정보를 지속적으로 수신하는 단계와, 상기 데이터처리부가 복수의 영상장치로부터 복수의 감시영상을 수신하면, 수신된 복수의 감시영상 중 상기 시간정보 및 상기 위치정보에 대응하는 감시영상을 검출하는 단계와, 상기 데이터처리부가 검출된 감시영상을 정규화하여 감시영상벡터를 생성하는 단계와, 식별부가 학습된 가중치를 가지는 인공신경망인 식별모델을 이용하여 감시영상벡터로부터 선박이 차지하는 영역을 특정하면서 선박이 조업상태인지 혹은 비조업상태인지 여부를 나타내는 하나 이상의 영역상자를 도출하고, 도출된 영역상자를 포함하는 출력영상벡터를 도출하는 단계와, 정보처리부가 출력영상벡터(OV)에 포함된 하나 이상의 영역상자 중 상기 식별장치의 상기 위치정보에 대응하는 영역상자를 검출하는 단계와, 상기 정보처리부가 검출된 영역상자를 통해 선박이 조업상태인지 혹은 비조업상태인지 여부를 확인하여 선박의 불법조업 여부를 판별하는 단계를 포함한다. In order to achieve the above object, in a method for monitoring illegal fishing according to a preferred embodiment of the present invention, the data processing unit continuously transmits identification information, location information, and time information of the identification device from an identification device mounted on a ship. receiving, when the data processing unit receives a plurality of surveillance images from a plurality of imaging devices, detecting a surveillance image corresponding to the time information and the location information among the plurality of surveillance images received; and processing the data. Generating a surveillance image vector by normalizing the surveillance image detected by the sub; and identifying the region occupied by the ship from the surveillance image vector by using an identification model, an artificial neural network having learned weights in the identification section, to determine whether the ship is in operating state or not. Deriving one or more region boxes indicating whether or not the operating state is in operation, and deriving an output image vector including the derived region boxes; Detecting a region box corresponding to the location information of and determining whether the ship is operating illegally by checking whether the ship is operating or not operating through the detected region box by the information processing unit. do.
상기 출력영상벡터를 도출하는 단계는 상기 식별모델이 상기 감시영상벡터를 복수의 셀로 구분한 후, 하나 이상의 영역상자를 도출하며, 상기 영역상자는 중심 좌표 및 상기 중심 좌표를 기준으로 폭과 높이를 나타내는 영역상자의 좌표, 상기 영역상자가 차지하는 영역이 상기 선박이 존재하는 영역과 일치하는 비율을 나타내는 신뢰도 및 상기 영역상자 내의 객체가 선박의 조업 상태를 나타내는 제1 클래스에 속할 확률 및 선박의 비조업상태를 나타내는 제2 클래스에 속할 확률을 포함하는 분류값을 포함한다. In the step of deriving the output image vector, after the identification model divides the monitoring image vector into a plurality of cells, one or more area boxes are derived, and the area box has center coordinates and width and height based on the center coordinates. Coordinates of the region box, reliability representing the rate at which the region occupied by the region box coincides with the region in which the ship exists, and the probability that an object in the region box belongs to the first class representing the operating state of the ship and the ship's non-operation and a classification value including a probability of belonging to the second class representing the state.
상기 위치정보에 대응하는 영역상자를 검출하는 단계는 상기 정보처리부가 상기 하나 이상의 영역상자의 선박의 위치정보를 산출하는 단계와, 상기 정보처리부가 상기 하나 이상의 영역상자 중 상기 식별장치의 위치정보와 가장 근접한 선박의 위치정보를 가지는 영역상자를 검출하는 단계를 포함한다. The step of detecting the area box corresponding to the location information includes the step of calculating, by the information processing unit, the location information of the ship of the one or more area boxes, and the information processing unit calculating the location information of the identification device among the one or more area boxes and and detecting a region box having location information of the nearest ship.
상기 선박의 위치정보를 산출하는 단계는 상기 정보처리부가 상기 영상장치를 기준으로 상기 영역상자의 선박에 대한 방향각 및 상기 영역상자의 선박과의 거리를 산출하는 단계와, 상기 정보처리부가 상기 영상장치의 위치정보를 기준으로 상기 방향각 및 상기 거리에 따라 상기 영역상자 내의 선박의 위치정보를 도출하는 단계를 포함한다. The calculating of the location information of the ship may include calculating, by the information processing unit, the direction angle of the area box with respect to the ship and the distance between the area box and the ship based on the imaging device, and the information processing unit calculating the image and deriving location information of a ship in the region box according to the direction angle and the distance based on the location information of the device.
상기 영역상자의 선박에 대한 방향각 및 상기 영역상자의 선박과의 거리를 산출하는 단계는 상기 정보처리부가 수학식 에 따라 상기 방향각을 산출하는 단계와, 상기 정보처리부가 수학식 에 따라 상기 거리를 산출하는 단계를 포함한다. Calculating the direction angle of the area box with respect to the ship and the distance of the area box from the ship is performed by the information processing unit using the equation Calculating the direction angle according to, and the information processing unit Equation and calculating the distance according to
여기서, 상기 는 수평 방향의 방향각이고, 상기 는 수직 방향의 방향각이고, 상기 d는 거리이고, 상기 X는 출력영상벡터의 중심좌표 중 수평 방향의 좌표이고, 상기 Y는 출력영상벡터의 중심좌표 중 수직 방향의 좌표이고, 상기 x는 영역상자의 중심좌표 중 수평 방향의 좌표이고, 상기 y는 영역상자의 중심좌표 중 수직 방향의 좌표이고, 상기 는 영상장치의 카메라모듈의 초점 거리인 것을 특징으로 한다. here, above is the orientation angle in the horizontal direction, and is a direction angle in the vertical direction, d is a distance, X is a coordinate in the horizontal direction among the coordinates of the center of an output image vector, Y is a coordinate in the vertical direction among the coordinates of the center of an output image vector, and x is an area is the coordinate in the horizontal direction among the coordinates of the center of the box, y is the coordinate in the vertical direction among the coordinates of the center of the area box, Is the focal length of the camera module of the imaging device.
상기 선박의 불법조업 여부를 판별하는 단계는 상기 정보처리부가 상기 제1 클래스에 속할 확률이 소정 임계치 이상이면서 상기 제2 클래스에 속할 확률이 보다 높으면, 상기 영역상자의 선박이 조업상태인 것으로 판단하고, 상기 제2 클래스에 속할 확률이 소정 임계치 이상이면서 상기 제1 클래스에 속할 확률이 보다 높으면, 상기 영역상자의 선박이 비조업상태인 것으로 판단하는 단계를 포함한다. In the step of determining whether the vessel is illegally operated, if the information processing unit has a probability of belonging to the first class greater than a predetermined threshold and a probability of belonging to the second class is higher, it is determined that the vessel of the area box is in an operating state, , if the probability of belonging to the second class is greater than a predetermined threshold and the probability of belonging to the first class is higher, determining that the ship of the area box is in a non-operational state.
상기 감시영상을 검출하는 단계는 상기 데이터처리부가 상기 식별정보가 지시하는 선박에 대해 조업이 허가된 영역을 나타내는 허가 영역 및 해당 허가 영역에서 조업이 허가된 시간을 나타내는 허가 시간을 포함하는 조업정보를 추출하는 단계와, 상기 데이터처리부가 상기 식별장치의 상기 위치정보 및 상기 시간정보가 조업정보의 허가 영역 및 허가 시간에 부합하지 않는 경우, 상기 시간정보 및 상기 위치정보에 대응하는 감시영상을 검출하는 단계를 포함한다. The step of detecting the monitoring image may include operation information including a permitted area indicating an area in which operation is permitted for the vessel indicated by the identification information and a permitted time indicating a permitted time for operation in the permitted area by the data processing unit. extracting, and detecting a surveillance image corresponding to the time information and the location information when the location information and the time information of the identification device do not conform to the permitted area and permitted time of the operation information by the data processing unit Include steps.
상기 감시영상벡터를 생성하는 단계는 상기 데이터처리부가 수학식 에 따라 상기 감시영상의 명도를 조절하고, 수학식 에 따라 상기 감시영상벡터를 생성한다. The step of generating the monitoring image vector is performed by the data processing unit by Equation Adjust the brightness of the surveillance image according to the equation The surveillance image vector is generated according to the above.
여기서, 상기 u 및 상기 v는 픽셀 좌표이고, 상기 는 명도가 조절된 감시영상의 픽셀값이고, 상기 는 감시영상의 픽셀값이고, 상기 m은 감시영상의 평균 픽셀값이고, 상기 q는 감시영상의 픽셀값의 표준 편차이고, 상기 는 명암대비 지수이고, 상기 는 명도가 조절된 감시영상의 평균 픽셀값이고, 상기 는 감시영상벡터의 픽셀값인 것을 특징으로 한다. Here, the u and the v are pixel coordinates, and the Is a pixel value of the surveillance image whose brightness is adjusted, is the pixel value of the surveillance image, m is the average pixel value of the surveillance image, q is the standard deviation of the pixel values of the surveillance image, is the contrast index, and Is the average pixel value of the surveillance image whose brightness is adjusted, is a pixel value of a surveillance image vector.
상기 방법은 상기 식별장치의 식별정보, 위치정보 및 시간정보를 지속적으로 수신하는 단계 전, 학습부가 학습용 감시영상벡터 및 학습용 감시영상벡터에 대응하는 실측영상벡터를 마련하는 단계와, 상기 학습부가 상기 학습용 감시영상벡터를 학습이 완료되지 않은 식별모델에 입력하는 단계와, 식별모델이 상기 학습용 감시영상벡터에 대해 복수의 계층 간 학습이 완료되지 않은 가중치를 적용한 복수의 연산을 수행하여 학습용 출력영상벡터를 포함하는 출력영상벡터를 생성하는 단계와, 상기 학습부가 손실함수를 통해 생성된 출력영상벡터와 상기 실측영상벡터 간의 차이를 나타내는 전체 손실을 산출하는 단계와, 상기 학습부가 전체 손실이 최소가 되도록 손실모델의 가중치를 수정하는 최적화를 수행하는 단계를 더 포함한다. The method includes, before the step of continuously receiving the identification information, location information, and time information of the identification device, a learning unit preparing a monitoring image vector for learning and an actual video vector corresponding to the monitoring image vector for learning, and the learning unit preparing the monitoring image vector for learning. The step of inputting a monitoring image vector for learning to an identification model for which learning has not been completed; and the identification model performing a plurality of calculations by applying weights for which learning has not been completed between a plurality of layers to the monitoring image vector for learning, and then output image vector for learning. Generating an output image vector including ; calculating, by the learning unit, a total loss representing a difference between an output image vector generated through a loss function and the measured image vector; The step of performing optimization to modify the weights of the loss model is further included.
본 발명은 인공신경망인 식별모델을 이용하여 선박을 식별하고, 식별된 선박의 불법 어업을 감시할 수 있다. The present invention can identify a vessel using an identification model, which is an artificial neural network, and monitor illegal fishing of the identified vessel.
도 1은 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 시스템의 구성을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 장치의 구성을 설명하기 위한 도면이다.
도 3은 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 식별모델을 설명하기 위한 도면이다.
도 4는 본 발명의 실시예에 따른 식별모델을 학습시키기 위한 실측영상벡터 및 식별모델이 산출하는 출력영상벡터를 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 식별모델(DM)을 학습시키는 방법을 설명하기 위한 흐름도이다.
도 6은 본 발명의 실시예에 따른 불법 어업을 감시하기 위한 방법을 설명하기 위한 흐름도이다.
도 7은 본 발명의 실시예에 따른 컴퓨팅 장치를 나타내는 도면이다. 1 is a diagram for explaining the configuration of a system for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention.
2 is a diagram for explaining the configuration of an apparatus for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention.
3 is a diagram for explaining an identification model for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention.
4 is a diagram for explaining an actual image vector for training an identification model and an output image vector calculated by the identification model according to an embodiment of the present invention.
5 is a flowchart for explaining a method of learning an identification model (DM) for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention.
6 is a flowchart illustrating a method for monitoring illegal fishing according to an embodiment of the present invention.
7 is a diagram illustrating a computing device according to an embodiment of the present invention.
본 발명의 상세한 설명에 앞서, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시예에 불과할 뿐, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다. Prior to the detailed description of the present invention, the terms or words used in this specification and claims described below should not be construed as being limited to a common or dictionary meaning, and the inventors should use their own invention in the best way. It should be interpreted as a meaning and concept corresponding to the technical idea of the present invention based on the principle that it can be properly defined as a concept of a term for explanation. Therefore, the embodiments described in this specification and the configurations shown in the drawings are only the most preferred embodiments of the present invention, and do not represent all of the technical ideas of the present invention, so various equivalents that can replace them at the time of the present application. It should be understood that there may be water and variations.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음을 유의해야 한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. At this time, it should be noted that the same components in the accompanying drawings are indicated by the same reference numerals as much as possible. In addition, detailed descriptions of well-known functions and configurations that may obscure the gist of the present invention will be omitted. For the same reason, some components in the accompanying drawings are exaggerated, omitted, or schematically illustrated, and the size of each component does not entirely reflect the actual size.
먼저, 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 시스템의 구성에 대해서 설명하기로 한다. 도 1은 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 시스템의 구성을 설명하기 위한 도면이다. 도 1을 참조하면, 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 시스템(10, 이하, '불법어업감시시스템'으로 칭함)은 감시장치(10), 식별장치(20) 및 영상장치(30)를 포함한다. First, the configuration of a system for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention will be described. 1 is a diagram for explaining the configuration of a system for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention. Referring to FIG. 1, a system for monitoring illegal fishing based on artificial neural networks (10, hereinafter referred to as 'illegal fishing monitoring system') according to an embodiment of the present invention includes a
식별장치(20)는 선박에 장착되며, 인공위성신호(예컨대, GPS(Global Positioning System) 신호) 기반의 식별장치(20) 혹은 선박의 현재 위치를 나타내는 위치정보 및 위치정보를 수신한 시간을 나타내는 시간 시간정보를 검출하고, 검출된 위치정보 및 시간정보를 식별장치(20)를 식별하기 위한 식별정보와 함께 감시장치(10)로 송출하기 위한 것이다. 이를 위하여, 식별장치(20)는 선박이 운행을 시작하면 지속적으로 인공위성신호(예컨대, GPS 신호) 기반의 위치정보 및 시간정보를 검출하는 위성신호처리부(미도시) 및 검출된 위치정보 및 시간정보를 감시장치(10)로 송출하는 통신부(미도시)를 포함한다. 식별장치(20)는 선박이 운행을 시작하면 지속적으로 위성신호처리부를 통해 인공위성신호(예컨대, GPS 신호) 기반의 위치정보 및 시간정보를 검출하고, 통신부를 통해 검출된 위치정보 및 시간정보와 함께 식별정보를 감시장치(10)로 송출한다. The identification device 20 is mounted on a ship, and the identification device 20 based on an artificial satellite signal (eg, a Global Positioning System (GPS) signal) or location information indicating the current location of the ship and time indicating the time at which the location information was received It is for detecting time information and transmitting the detected location information and time information together with identification information for identifying the identification device 20 to the
영상장치(30)는 감시영상을 촬영하고 촬영된 감시영상을 감시장치(10)로 전송하기 위한 것이다. 이러한 영상장치(30)는 CCTV(Closed-circuit Television)를 예시할 수 있다. 영상장치(30)는 감시영상을 촬영하기 위한 카메라모듈(미도시) 및 촬영된 감시영상을 유선 혹은 무선으로 전송하기 위한 통신모듈(미도시)을 포함한다. 복수의 영상장치(30)가 항만 주변에 걸쳐 설치된다. 영상장치(30)는 항만 주변의 지상에 설치되거나, 해상의 부표 등에 설치될 수 있다. 항만 주변의 해상 영역은 복수의 감시영역으로 구분되고, 구분된 복수의 감시영역은 복수의 영상장치(30) 각각에 할당된다. 이에 따라, 복수의 영상장치(30) 각각은 카메라모듈(미도시)을 통해 할당된 감시영역을 지속적으로 촬영하여 감시영상을 생성하고, 통신모듈(미도시)을 통해 생성된 감시영상을 감시장치(10)로 송출한다. The
감시장치(10)는 식별정보에 대응하여 선박을 식별하기 위한 정보인 선박정보와, 그 선박의 조업정보를 미리 저장한다. 여기서, 조업정보는 해당 선박의 조업이 허가된 영역을 나타내는 허가 영역 및 해당 허가 영역에서 조업이 허가된 시간을 나타내는 허가 시간을 포함한다. The
감시장치(10)는 식별장치로부터 식별정보, 위치정보 및 시간정보를 지속적으로 수신할 수 있다. 그러면, 감시장치(10)는 식별장치(20)로부터 수신되는 식별정보를 이용하여 선박을 식별하고, 식별된 선박의 조업정보를 추출한 후, 수신된 위치정보 및 시간정보가 추출된 조업정보에 부합하는지 여부를 확인한다. 이에 따라, 감시장치(10)는 해당 선박이 허가되지 않은 시간에 허가되지 않은 영역에 위치하는지 여부를 확인할 수 있다. 또한, 감시장치(10)는 감시영상을 기초로 본 발명의 실시예에 따른 인공신경망 기반의 학습 모델(machine learning model 또는 deep learning model)인 식별모델(DM)을 생성할 수 있다. 또한, 감시장치(10)는 식별모델(DM)이 생성되면, 생성된 식별모델(DM)을 이용하여 선박이 조업 상태인지 혹은 비조업 상태인지 여부를 확인할 수 있다. 이에 따라, 감시장치(10)는 감시장치(10)는 해당 선박이 허가되지 않은 시간에 허가되지 않은 영역에 위치하면서, 선박이 조업상태이면, 해당 선박이 불법어업을 수행하고 있는 것으로 판별할 수 있다. The
다음으로, 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 장치의 구성에 대해서 설명하기로 한다. 도 2는 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 장치의 구성을 설명하기 위한 도면이다. 도 3은 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 식별모델을 설명하기 위한 도면이다. 도 4는 본 발명의 실시예에 따른 식별모델을 학습시키기 위한 실측영상벡터 및 식별모델이 산출하는 출력영상벡터를 설명하기 위한 도면이다. Next, the configuration of an apparatus for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention will be described. 2 is a diagram for explaining the configuration of an apparatus for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention. 3 is a diagram for explaining an identification model for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention. 4 is a diagram for explaining an actual image vector for training an identification model and an output image vector calculated by the identification model according to an embodiment of the present invention.
도 2를 참조하면, 감시장치(10)는 학습부(100), 데이터처리부(200), 식별부(300) 및 정보처리부(400)를 포함한다. Referring to FIG. 2 , the
학습부(100)는 인공신경망 기반의 학습모델인 식별모델(DM)을 학습(machine learning 또는 deep learning)을 통해 생성하기 위한 것이다. 학습부(100)는 도 3 및 도 4에 도시된 바와 같이, 식별모델(DM)이 감시영상벡터(IV)가 입력되면, 선박이 차지하는 영역을 특정하고, 영역상자(B) 내의 객체, 즉, 선박이 조업상태인지 혹은 비조업상태인지 여부를 나타내는 하나 이상의 영역상자(B: Bounding Box)를 포함하는 출력영상벡터(OV)를 도출하도록 학습시킨다. 학습부(100)가 식별모델(DM)을 생성하는 방법에 대해서는 아래에서 더 상세하게 설명될 것이다. The
본 발명의 실시예에서 식별모델(DM)은 소프트웨어인 것으로 설명될 것이다. 하지만, 식별모델(DM)은 하드웨어 혹은 소프트웨어 및 하드웨어가 복합적으로 혼합된 형태로 구현될 수 있다. 일례로, 식별모델(DM)은 하나 이상의 연산 장치를 통해 구현될 수 있다. 예컨대, 이러한 연산 장치는 CPU(Central Processing Unit), GPU(graphics processing unit), NPU(Neural Processing Unit) 등을 예시할 수 있다. 또한, 식별모델(DM)은 예컨대, TPU(tensor processing unit)와 같은 하드웨어 가속기를 통해 구현될 수도 있다. In the embodiment of the present invention, the identification model (DM) will be described as being software. However, the identification model (DM) may be implemented in hardware or a complex mixture of software and hardware. For example, the identification model (DM) may be implemented through one or more computing devices. For example, such a computing device may include a central processing unit (CPU), a graphics processing unit (GPU), a neural processing unit (NPU), and the like. Also, the identification model (DM) may be implemented through a hardware accelerator such as, for example, a tensor processing unit (TPU).
식별모델(DM)은 복수의 계층을 포함하며, 복수의 계층 각각은 복수의 연산을 수행하기 위한 복수의 연산모듈을 포함한다. 어느 하나의 계층의 복수의 연산 결과 각각은 가중치가 적용되어 다음 계층에 전달된다. 이는 현 계층의 연산 결과에 가중치가 적용되어 다음 계층의 연산에 입력되는 것을 의미한다. 다른 말로, 식별모델(DM)은 복수의 계층의 가중치가 적용되는 복수의 연산을 수행한다. 복수의 계층은 컨볼루션(Convolution) 연산을 수행하는 컨볼루션계층(CVL: Convolution Layer), 다운샘플링(Down Sampling) 연산 혹은 업샘플링(Up Sampling) 연산을 수행하는 풀링계층(PLL: Pooling Layer), 활성화함수에 의한 연산을 수행하는 완전연결층(FCL: Fully Connected Layer) 등을 포함한다. 컨볼루션, 다운샘플링 및 업샘플링 연산 각각은 소정의 행렬로 이루어진 커널을 이용하며, 이러한 커널을 이루는 행렬의 원소의 값들이 가중치(w)가 된다. 여기서, 활성화함수는 시그모이드(Sigmoid), 하이퍼볼릭탄젠트(tanh: Hyperbolic tangent), ELU(Exponential Linear Unit), ReLU(Rectified Linear Unit), Leakly ReLU, Maxout, Minout, Softmax 등을 예시할 수 있다. 이러한 식별모델(DM)은 YOLO(You Only Look Once), YOLOv2, YOLO9000, YOLOv3, YOLOv4, YOLOv5 등의 알고리즘이 적용된 모델을 예시할 수 있다. The identification model DM includes a plurality of layers, and each of the plurality of layers includes a plurality of calculation modules for performing a plurality of calculations. Each of the plurality of calculation results of any one layer is transferred to the next layer after a weight is applied. This means that a weight is applied to the calculation result of the current layer and input to the calculation of the next layer. In other words, the identification model (DM) performs a plurality of calculations to which weights of a plurality of layers are applied. The plurality of layers include a Convolution Layer (CVL) that performs a convolution operation, a Pooling Layer (PLL) that performs a Down Sampling operation or an Up Sampling operation, It includes a Fully Connected Layer (FCL) that performs operations based on an activation function. Each of the convolution, downsampling, and upsampling operations uses a kernel composed of a predetermined matrix, and values of elements of the matrix constituting the kernel become weights w. Here, the activation function may include sigmoid, hyperbolic tangent (tanh), exponential linear unit (ELU), rectified linear unit (ReLU), leaky ReLU, Maxout, Minout, Softmax, and the like. . The identification model (DM) may exemplify models to which algorithms such as You Only Look Once (YOLO), YOLOv2, YOLO9000, YOLOv3, YOLOv4, and YOLOv5 are applied.
식별모델(DM)은 복수의 계층의 가중치가 적용되는 복수의 연산을 통해 하나 이상의 영역상자(B)를 검출한다. 영역상자(B)는 영역상자(B)의 좌표, 신뢰도 및 분류값을 포함한다. 영역상자(B)의 좌표는 출력영상벡터(OV)의 복수의 셀(예컨대, 도 4의 (1, 1) 내지 (4, 4)) 중 어느 하나에 중심 좌표(x, y)를 가지며, 중심 좌표를 기준으로 폭 및 높이(w, h)가 정의된다(x, y, w, h). 신뢰도(confidence: 0~1: 0%~100%)는 영역상자(B)가 차지하는 영역이 객체(obj), 즉, 선박이 차지하는 영역을 100% 포함하고 있는 실측상자(GT: ground-truth box)와 일치하는 정도를 나타낸다. 다른 말로, 신뢰도(confidence)는 즉, 영역상자(B)가 차지하는 영역이 선박이 차지하는 영역을 포함하는 정도를 나타낸다. 분류값은 영역상자(B) 내의 객체가 선박의 조업 상태를 나타내는 제1 클래스에 속할 확률 및 선박의 비조업상태를 나타내는 제2 클래스에 속할지에 대한 확률을 포함한다. 그런 다음, 식별모델(DM)은 검출된 하나 이상의 영역상자(B) 중 신뢰도가 소정 수치 이상인 영역상자(B)를 선택하고, 선택된 영역상자(B)를 입력영상벡터(IV)에 표시하여 출력영상벡터(OV)를 도출한다. The identification model (DM) detects one or more region boxes (B) through a plurality of calculations to which weights of a plurality of layers are applied. Area box B includes the coordinates, reliability and classification values of area box B. The coordinates of the area box B have center coordinates (x, y) in any one of a plurality of cells (eg, (1, 1) to (4, 4) in FIG. 4) of the output image vector (OV), The width and height (w, h) are defined based on the center coordinates (x, y, w, h). Confidence (0~1: 0%~100%) is a ground-truth box (GT: ground-truth box) in which the area occupied by the area box (B) contains 100% of the area occupied by the object (obj), that is, the ship. ) indicates the degree of agreement. In other words, confidence indicates the degree to which the area occupied by the area box B includes the area occupied by the ship. The classification value includes a probability that an object in the area box B belongs to a first class representing the operating state of the ship and a probability of belonging to a second class representing the non-operating state of the ship. Then, the identification model (DM) selects a region box (B) whose reliability is higher than a predetermined value among one or more detected region boxes (B), displays the selected region box (B) on the input image vector (IV), and outputs the result. An image vector (OV) is derived.
데이터처리부(200)는 복수의 영상장치(30)로부터 할당된 복수의 감시영역을 촬영한 복수의 감시영상을 지속적으로 수신하고, 선박에 장착된 식별장치(20)로부터 식별장치(20)의 식별정보, 위치정보 및 시간정보를 지속적으로 수신할 수 있다. 또한, 데이터처리부(200)는 식별장치(20)의 식별정보가 지시하는 선박의 조업정보를 추출할 수 있다. 여기서, 조업정보는 해당 선박의 조업이 허가된 영역을 나타내는 허가 영역 및 해당 허가 영역에서 조업이 허가된 시간을 나타내는 허가 시간을 포함한다. 그리고 데이터처리부(200)는 식별장치(20)의 위치정보 및 시간정보가 조업정보의 허가 영역 및 허가 시간에 부합하는지 여부를 판단할 수 있다. 이러한 판단 결과, 식별장치(20)의 위치정보 및 시간정보가 조업정보의 허가 영역 및 허가 시간에 부합하지 않으면, 데이터처리부(200)는 식별장치(20)가 송출한 위치정보에 해당하는 감시영역이 할당된 영상장치(30)를 선택하고, 선택된 영상장치(30)가 촬영한 감시영상 중 식별장치(20)가 송출한 시간정보에 대응하는 시간에 촬영된 감시영상을 검출한다. The
그리고 데이터처리부(200)는 검출된 감시영상을 정규화하여 감시영상벡터를 생성한다. 이때, 데이터처리부(200)는 감시영상에서 선박이 부각되도록 감시영상벡터의 픽셀을 변환하여 감시영상벡터를 생성하기 위한 것이다. 이를 위하여, 데이터처리부(200)는 먼저, 감시영상의 명도(Brightness)를 조절한다. 이때, 데이터처리부(200)는 감시영상의 각 픽셀값을 다음의 수학식 1에 따라 수정하여 감시영상의 명도(Brightness)를 조절할 수 있다. The
여기서, u 및 v는 픽셀 좌표이고, 는 명도가 조절된 감시영상의 픽셀값이다. 또한, 는 감시영상의 픽셀값, m은 감시영상의 평균 픽셀값, q는 감시영상의 픽셀값의 표준 편차이다. where u and v are pixel coordinates, is the pixel value of the surveillance image whose brightness is adjusted. also, is the pixel value of the surveillance image, m is the average pixel value of the surveillance image, and q is the standard deviation of the pixel values of the surveillance image.
그런 다음, 데이터처리부(200)는 명도가 조절된 감시영상의 명암대비(constrast)를 증가시켜 감시영상벡터를 생성한다. 이때, 데이터처리부(200)는 명도가 조절된 감시영상의 평균 픽셀값을 기준으로 다음의 수학식 2와 같이 명암대비(contrast)를 증가시킨다. Then, the
여기서, u 및 v는 픽셀 좌표이고, 는 명도가 조절된 감시영상의 픽셀값이다. 는 명암대비 지수이며, 미리 설정되는 값이다. 는 명도가 조절된 감시영상의 평균 픽셀값을 나타내며, 는 명암대비(contrast)가 증가된 감시영상, 즉, 감시영상벡터의 픽셀값이다. where u and v are pixel coordinates, is the pixel value of the surveillance image whose brightness is adjusted. is a contrast index and is a preset value. represents the average pixel value of the surveillance image whose brightness is adjusted, is a pixel value of a surveillance image with increased contrast, that is, a surveillance image vector.
식별부(300)는 식별모델(DM)을 이용하여 식별모델(DM)을 이용하여 감시영상벡터(IV)로부터 출력영상벡터(OV)를 도출하기 위한 것이다. 이를 위하여 식별부(300)는 데이터처리부(200)로부터 영상벡터가 입력되면, 입력된 영상벡터를 식별모델(DM)에 입력한다. 그러면, 식별모델(DM)은 복수의 계층 간 가중치가 적용되는 복수의 연산을 통해 하나 이상의 영역상자(B: Bounding Box)를 도출한다. 여기서, 도출된 하나 이상의 영역상자(B) 각각은 영역상자(B)의 좌표, 신뢰도(confidence: 0~1) 및 분류값(match rate)을 포함한다. 영역상자(B)의 좌표는 출력영상벡터(OV)를 복수의 셀로 구분했을 때, 복수의 셀 각각에서의 중심 좌표(x, y)와, 중심 좌표(x, y)를 기준으로 하는 폭(w) 및 높이(h)를 포함한다. 신뢰도(confidence)는 영역상자(B)가 차지하는 영역이 선박이 차지하는 영역을 모두 포함할 확률을 나타낸다. 분류값은 영역상자(B) 내의 객체가 선박의 조업 상태를 나타내는 제1 클래스에 속할 확률 및 선박의 비조업상태를 나타내는 제2 클래스에 속할지에 대한 확률을 포함한다. The
이어서, 식별모델(DM)은 도출된 하나 이상의 영역상자(B) 중 영역상자(B)의 신뢰도가 소정 수치, 예컨대, 1(100%) 이상인 영역상자(B)를 출력영상벡터(OV)에 시각화한다. 즉, 식별모델(DM)은 도 4에 도시된 바와 같이, 영영상자(B)의 좌표에 따라 영영상자(B)를 표시하고, 분류값을 표시하여 출력영상벡터(OV)를 도출한다. Subsequently, the identification model (DM) selects a region box (B) having a reliability of a predetermined value, for example, 1 (100%) or more, among one or more derived region boxes (B), in the output image vector (OV). Visualize. That is, as shown in FIG. 4, the identification model (DM) displays the video image B according to the coordinates of the video image B, displays the classification value, and derives the output image vector OV.
정보처리부(400)는 출력영상벡터(OV)의 하나 이상의 영역상자(B) 중 식별장치(20)가 장착된 선박을 특정하는 영역상자(B)를 검출하고, 검출된 영역상자(B)의 분류값을 통해 해당 선박이 조업상태인지 혹은 비조업상태인지 여부를 도출하기 위한 것이다. 이에 따라, 해당 선박이 허가되지 않은 영역 혹은 허가되지 않은 시간에 조업상태로 확인된 경우, 정보처리부(400)는 해당 선박이 불법조업인 것으로 판단할 수 있다. The
다음으로, 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 식별모델(DM)을 학습시키는 방법에 대해서 설명하기로 한다. 도 5는 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 식별모델(DM)을 학습시키는 방법을 설명하기 위한 흐름도이다. Next, a method for learning an identification model (DM) for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention will be described. 5 is a flowchart for explaining a method of learning an identification model (DM) for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention.
도 3 내지 도 5를 참조하면, 학습부(100)는 S110 단계에서 학습 데이터를 마련한다. 학습 데이터는 학습용 감시영상벡터(IV) 및 학습용 감시영상벡터(IV)에 대응하는 실측영상벡터(GV)를 포함한다. 여기서, 실측영상벡터(GV)는 학습용 감시영상벡터(IV)의 레이블이다. 학습용 감시영상벡터(IV)는 영상장치(30)가 촬영한 감시영상을 감시영상벡터(IV)로 변환한 것이다. 학습용 감시영상을 감시영상벡터(IV)로 변환하는 방법은 앞서 설명된 바와 같이, 수학식 1 및 수학식 2를 통해 명도(Brightness)를 조절하고, 명암대비(contrast)를 증가시킨 영상이다. 즉, 학습용 감시영상벡터(IV)는 데이터처리부(200)가 감시영상을 감시영상벡터(IV)로 변환하는 방법과 동일한 방법으로 생성된다. 실측영상벡터(GV)는 학습용 감시영상벡터(IV)에 실측상자(GT: ground-truth box)가 부가된 영상이다. 실측상자(GT)는 학습용 감시영상벡터(IV)에서 실제로 선박이 차지하는 영역을 표현한 것이며, 실측상자(GT)의 좌표(x, y, w, h), 신뢰도 및 분류값을 포함한다. 실측상자(GT)의 분류값은 학습 데이터이기 때문에 알려진 값이며, 실측상자(GT) 내의 객체가 선박의 조업 상태인 경우를 나타내는 제1 클래스(CL1)에 속하는 경우, [CL1=1, CL2=0]이고, 실측상자(GT) 내의 객체가 선박의 비조업 상태인 경우를 나타내는 제2 클래스(CL2)에 속하는 경우, [CL1=0, CL2=1]으로 표현될 수 있다. Referring to FIGS. 3 to 5 , the
실측상자(GT)의 좌표는 어느 하나의 셀에 중심 좌표(x, y)를 가진다. 예컨대, 도 4에 도시된 바와 같이, 실측상자(GT)의 중심 좌표(x, y)는 셀 (2, 2)에 그 중심 좌표가 존재한다. 또한, 실측상자(GT)의 좌표는 그 중심 좌표(x, y)를 기준으로 하는 폭(w) 및 높이(h)를 더 가진다. 그리고 실측상자(GT)의 신뢰도는 1(100%)이다. The coordinates of the measurement box GT have center coordinates (x, y) in any one cell. For example, as shown in FIG. 4 , the center coordinates (x, y) of the measurement box GT exist in cells (2, 2). In addition, the coordinates of the measurement box GT further have a width w and a height h based on the center coordinates (x, y). And the reliability of the measurement box (GT) is 1 (100%).
다음으로, 학습부(100)는 S120 단계에서 학습이 완료되지 않은 가중치를 가지는 식별모델(DM)에 학습용 감시영상벡터(IV)를 입력한다. Next, the
그러면, 식별모델(DM)은 S130 단계에서 학습용 감시영상벡터(IV)에 대해 복수의 계층 간 학습이 완료되지 않은 가중치를 적용한 복수의 연산을 수행하여 학습용 출력영상벡터(OV)를 도출한다. 이때, 식별모델(DM)은 하나 이상의 영역상자(B)를 도출하고, 도출된 하나 이상의 영역상자(B) 중 실측상자(GT)의 중심좌표가 존재하는 셀에서 신뢰도가 소정 수치 이상인 영역상자(B)를 학습용 영역상자(B)로 선택한다. 그런 다음, 식별모델(DM)은 학습용 영역상자(B)가 적용된 학습용 출력영상벡터(OV)를 생성한다. Then, in step S130, the identification model (DM) derives an output image vector (OV) for learning by performing a plurality of calculations to which a weight for which learning between a plurality of layers has not been completed is applied to the monitoring image vector (IV) for learning. At this time, the identification model (DM) derives one or more region boxes (B), and among the one or more derived region boxes (B), the region box having a reliability of a predetermined value or more in a cell in which the center coordinates of the measurement box (GT) exist ( Select B) as the learning area box (B). Then, the identification model (DM) generates an output image vector (OV) for learning to which the learning region box (B) is applied.
그러면, 학습부(100)는 S140 단계에서 학습용 출력영상벡터(OV)와 실측영상벡터(GV)와의 차이, 보다 구체적으로, 학습용 출력영상벡터(OV)의 학습용 영역상자(B)와 실측영상벡터(GV)의 실측상자(GT)와의 차이를 나타내는 손실을 산출한다. 이때, 학습부(100)는 다음의 수학식 3과 같은 손실함수를 통해 손실을 산출할 수 있다. Then, in step S140, the
S는 셀의 수를 나타내며, C는 신뢰도를 나타낸다. B는 한 셀 내의 영역상자(B)의 수를 나타낸다. pi(c)는 i 번째 셀의 객체(obj)가 해당 클래스(c)일 확률, 즉, 분류값을 나타낸다. 본 발명의 실시예에서 2개의 클래스, 제1 클래스(CL1: c=1) 및 제2 클래스(CL2: c=2)가 존재한다. 예컨대, pi(1)는 영역상자(B) 내의 객체가 선박의 조업 상태를 나타내는 제1 클래스에 속할 확률이고, pi(2)는 선박의 비조업상태를 나타내는 제2 클래스에 속할지에 대한 확률을 나타낸다. 여기서, i는 객체가 존재하는 셀을 나타내는 파라미터이고, j는 예측된 영역상자를 나타내는 파라미터이다. 또한, x, y는 영역상자의 중심좌표를 나타내며, w 및 h는 각각 영역상자의 폭과 높이를 나타낸다. 는 영역상자의 변수에 대한 값을 더 반영하기 위한 것으로, 영역상자의 좌표(x, y, w, h)에 대한 손실과 다른 손실들과의 균형을 위한 하이퍼파라미터이다. 는 영역상자의 변수에 대한 값을 더 반영하고, 물체가 없는 영역에 대한 값을 덜 반영하기 위한 것이다. 즉, 는 객체가 있는 영역상자와 객체가 없는 영역상자 간의 균형을 위한 하이퍼파라미터이다. 여기서, =5이고, =0.5가 될 수 있다. 는 셀 i에 객체, 예컨대, 선박이 있는 경우 1이고, 없는 경우 0을 나타낸다. 는 셀 i에 있는 영역상자 j에 객체, 예컨대, 선박이 있으면 1이고, 없으면 0을 나타낸다. 는 셀 i에 있는 영역상자 j에 객체, 예컨대, 선박이 없으면 1이고, 있으면 0을 나타낸다. S represents the number of cells, and C represents reliability. B represents the number of area boxes (B) in one cell. pi(c) represents the probability that the object obj in the ith cell is of the corresponding class c, that is, the classification value. In an embodiment of the present invention, there are two classes, a first class (CL1: c=1) and a second class (CL2: c=2). For example, pi(1) is the probability that the object in the area box B belongs to the first class representing the operating state of the ship, and pi(2) is the probability of belonging to the second class representing the non-operating state of the ship indicates Here, i is a parameter indicating a cell in which an object exists, and j is a parameter indicating a predicted region box. In addition, x and y represent the coordinates of the center of the region box, and w and h represent the width and height of the region box, respectively. is to further reflect the value of the variable of the region box, and is a hyperparameter for balancing the loss with respect to the coordinates (x, y, w, h) of the region box and other losses. is to reflect more the value of the variable of the area box and less reflect the value of the area without the object. in other words, is a hyperparameter for the balance between a region box with an object and a region box without an object. here, =5, and = 0.5. represents 1 when there is an object, eg, a ship, in cell i, and 0 when there is no cell i. represents 1 if there is an object, for example, a ship, in area box j in cell i, and 0 otherwise. represents 1 if there is no object, for example, a ship, in the area box j in cell i, and 0 if there is.
수학식 3의 손실 함수를 살펴보면, 수학식 3의 첫 번째 항(term)은 다음의 수학식 4와 같다. Looking at the loss function of Equation 3, the first term of Equation 3 is equal to Equation 4 below.
이러한 수학식 4는 학습용 영역상자(B)의 좌표()와 선박이 차지하는 영역을 나타내는 실측상자(GT)의 좌표()와의 차이를 나타내는 좌표 손실(coordinate loss)을 산출하기 위한 것이다. Equation 4 is the coordinates of the learning area box (B) ( ) and the coordinates of the measurement box (GT) representing the area occupied by the ship ( ) to calculate the coordinate loss representing the difference.
또한, 수학식 3의 두 번째 및 세 번째 항은 다음의 수학식 5와 같다. In addition, the second and third terms of Equation 3 are the same as Equation 5 below.
수학식 5는 학습용 영역상자(B)가 차지하는 영역과, 실측상자(GT)가 차지하는 영역과의 차이를 나타내는 신뢰도 손실(confidence loss)을 산출하기 위한 것이다. 즉, 는 학습용 영역상자(B)의 신뢰도이고, 는 실측상자(GT)의 신뢰도이다. Equation 5 is for calculating the confidence loss representing the difference between the area occupied by the learning area box B and the area occupied by the measurement box GT. in other words, Is the reliability of the learning area box (B), Is the reliability of the measurement box (GT).
마지막으로, 수학식 3의 마지막 항은 다음의 수학식 6과 같다. Finally, the last term of Equation 3 is equal to Equation 6 below.
수학식 6은 영역상자(B) 내의 객체와 실측상자(GT) 내의 객체와의 차이를 나타내는 분류 손실(classification loss)을 산출하기 위한 것이다. 는 학습용 영역상자(B)의 분류값이고, 는 실측상자(GT)의 분류값이다. Equation 6 is for calculating a classification loss representing a difference between an object in the region box B and an object in the measurement box GT. Is the classification value of the learning area box (B), Is the classification value of the measurement box GT.
전술한 바와 같이, 손실 함수를 통해 좌표 손실, 신뢰도 손실 및 분류 손실을 포함하는 전체 손실이 산출되면, 학습부(100)는 S150 단계에서 좌표 손실, 신뢰도 손실 및 분류 손실을 포함하는 전체 손실이 최소가 되도록 식별모델(DM)의 가중치를 수정하는 최적화를 수행한다. As described above, when the total loss including the coordinate loss, the reliability loss, and the classification loss is calculated through the loss function, the
한편, 학습부(100)는 전술한 S120 단계 내지 S150 단계는 서로 다른 복수의 학습 데이터를 이용하여 소정의 종료 조건을 만족할 때까지 반복하여 수행한다. 이러한 반복에 따라 식별모델(DM)의 가중치는 반복하여 갱신된다. 그리고 이러한 반복은 전체 손실이 기 설정된 목표치 이하가 될 때까지 이루어질 수 있다. 따라서 일 실시예에 따르면, 학습부(100)는 S160 단계에서 앞서(S140) 산출한 전체 손실이 기 설정된 목표치 이하인지 여부를 판별하고, 전체 손실이 기 설정된 목표치 이하이면, S170 단계에서 식별모델(DM)에 대한 학습을 완료한다. Meanwhile, the
한편, S160 단계의 대안적인 실시예에 따르면, 학습부(100)는 좌표 손실 및 신뢰도 손실이 기 설정된 목표치 이하이고, 분류 손실이 수렴하는 경우, S170 단계에서 식별모델(DM)에 대한 학습을 완료한다. Meanwhile, according to an alternative embodiment of step S160, the
다음으로, 전술한 바와 같이, 학습이 완료되어 학습된 가중치를 가지는 식별모델(DM)을 이용하여 불법 어업을 감시하기 위한 방법에 대해서 설명하기로 한다. 도 6은 본 발명의 실시예에 따른 불법 어업을 감시하기 위한 방법을 설명하기 위한 흐름도이다. Next, as described above, a method for monitoring illegal fishing using the identification model (DM) having weights learned after learning has been completed will be described. 6 is a flowchart illustrating a method for monitoring illegal fishing according to an embodiment of the present invention.
도 6을 참조하면, 복수의 영상장치(30)는 항만 주변에 설치된다. 항만 주변의 해상 영역은 복수의 감시영역으로 구분되고, 구분된 복수의 감시영역은 복수의 영상장치(30) 각각에 할당된다. 이에 따라, 복수의 영상장치(30) 각각은 할당된 감시영역을 지속적으로 촬영하여 감시영상을 생성하고, 생성된 감시영상을 감시장치(10)로 송출한다. Referring to FIG. 6 , a plurality of
한편, 선박에 장착된 식별장치(20)는 선박이 운행을 시작하면 지속적으로 인공위성신호(예컨대, GPS 신호) 기반의 위치정보 및 시간정보를 검출하고, 검출된 위치정보 및 시간정보를 식별장치(20)를 식별하기 위한 식별정보와 함께 감시장치(10)로 송출한다. On the other hand, the identification device 20 mounted on the ship continuously detects position information and time information based on artificial satellite signals (eg, GPS signals) when the ship starts operating, and identifies the detected location information and time information as the identification device ( 20) is transmitted to the
이에 따라, 데이터처리부(200)는 S210 단계에서 복수의 영상장치(30)로부터 할당된 복수의 감시영역을 촬영한 복수의 감시영상을 지속적으로 수신하고, 선박에 장착된 식별장치(20)로부터 식별장치(20)의 식별정보, 위치정보 및 시간정보를 지속적으로 수신한다. Accordingly, the
데이터처리부(200)는 S220 단계에서 식별장치(20)의 식별정보가 지시하는 선박의 조업정보를 추출한다. 여기서, 조업정보는 해당 선박의 조업이 허가된 영역을 나타내는 허가 영역 및 해당 허가 영역에서 조업이 허가된 시간을 나타내는 허가 시간을 포함한다. The
이어서, 데이터처리부(200)는 S230 단계에서 식별장치(20)의 위치정보 및 시간정보가 조업정보의 허가 영역 및 허가 시간에 부합하는지 여부를 판단한다. S230 단계의 판단 결과, 식별장치(20)의 위치정보 및 시간정보가 조업정보의 허가 영역 및 허가 시간에 부합하지 않으면, 데이터처리부(200)는 S240 단계로 진행한다. Subsequently, the
이에 따라, 데이터처리부(200)는 S240 단계에서 식별장치(20)가 송출한 위치정보에 해당하는 감시영역이 할당된 영상장치(30)를 선택하고, 선택된 영상장치(30)가 촬영한 감시영상 중 식별장치(20)가 송출한 시간정보에 대응하는 시간에 촬영된 감시영상을 검출한다. Accordingly, the
이어서, 데이터처리부(200)는 S250 단계에서 검출된 감시영상을 정규화하여 감시영상벡터를 생성한다. 즉, 데이터처리부(200)는 검출된 감시영상을 수학식 1 및 수학식 2에 따라 명도(Brightness) 및 명암대비(contrast)를 조절하여 감시영상벡터를 생성한다. 즉, 데이터처리부(200)는 감시영상에서 선박이 부각되도록 감시영상벡터의 픽셀을 변환하여 감시영상벡터를 생성한다. 이를 위하여, 데이터처리부(200)는 먼저, 수학식 1에 따라 감시영상의 각 픽셀값을 조절함으로써 감시영상의 명도(Brightness)를 조절한다. 그런 다음, 데이터처리부(200)는 수학식 2에 따라 명도가 조절된 감시영상의 평균 픽셀값을 기준으로 명도가 조절된 감시영상의 명암대비(constrast)를 증가시켜 감시영상벡터(IV)를 생성한다. Subsequently, the
다음으로, 식별부(300)는 S260 단계에서 식별모델(DM)을 이용하여 감시영상벡터(IV)로부터 출력영상벡터(OV)를 도출한다. 즉, 식별부(300)는 학습된 가중치를 가지는 인공신경망인 식별모델을 이용하여 감시영상벡터(IV)로부터 선박를 식별하는 동시에 조업 상태인지 여부를 식별하기 위한 하나 이상의 영역상자(B)를 도출하고, 도출된 영역상자(B)를 포함하는 출력영상벡터(OV)를 도출한다. 이때, 식별부(300)가 감시영상벡터(IV)를 식별모델(DM)에 입력하면, 식별모델(DM)은 감시영상벡터(IV)에 대해 복수의 계층 간 학습이 완료된 가중치가 적용되는 복수의 연산을 수행하여 감시영상벡터(IV)를 복수의 셀로 구분한 후, 하나 이상의 영역상자(B)를 도출한다. 여기서, 각 영역상자(B)는 중심 좌표(x, y) 및 중심 좌표(x, y)를 기준으로 폭과 높이(w, h)를 나타내는 영역상자의 좌표(x, y, w, h), 영역상자(B)가 차지하는 영역이 객체인 선박이 차지하는 영역과 일치하는 비율을 나타내는 신뢰도(confidence) 및 영역상자(B) 내의 객체가 선박의 조업 상태를 나타내는 제1 클래스에 속할 확률 및 선박의 비조업상태를 나타내는 제2 클래스에 속할지에 대한 확률을 포함하는 분류값을 포함한다. 이어서, 식별모델(DM)은 감시영상벡터(IV)에 영역상자(B)를 표현하여 출력영상벡터(OV)를 생성한다. 학습이 완료된 경우, 도출되는 영역상자(B)의 신뢰도는 기준치(예컨대, 0.95(95%), 1(100%) 등) 이상이기 때문에 출력영상벡터(OV)에는 영역상자(B)의 좌표(x, y, w, h) 및 분류값(예컨대, CL1=0.9001, CL2=0.0999)만 표현될 수 있다. Next, the
출력영상벡터(OV)가 도출되면, 정보처리부(400)는 S270 단계에서 출력영상벡터(OV)에 포함된 하나 이상의 영역상자(B) 중 식별장치(20)의 위치정보에 상응하는 영역상자(B)를 검출한다. 즉, 정보처리부(400)는 하나 이상의 영역상자(B)의 위치정보를 검출하고, 하나 이상의 영역상자(B) 중 식별장치(20)의 위치정보와 가장 근접한 위치 정보를 가지는 영역상자(B)를 검출한다. 여기서, 영역상자(B)의 위치정보는 영역상자(B)의 객체(선박)의 위치정보를 의미한다. When the output image vector OV is derived, the
이를 위하여, 정보처리부(400)는 영상장치(30)를 기준으로 영역상자(B) 내의 객체, 즉, 선박과의 방향각 및 거리를 산출한다. 특히, 정보처리부(400)는 다음의 수학식 7에 따라 영상장치(30)를 기준으로 하는 영역상자(B) 내의 객체(선박)에 대한 방향각 을 산출하고, 다음의 수학식 8에 따라 영상장치(30)로부터 영역상자(B) 내의 객체(선박)와의 거리 d를 산출할 수 있다. To this end, the
수학식 7에서, 는 수평 방향의 방향각이고, 는 수직 방향의 방향각을 나타낸다. 수학식 8에서, d는 영상장치(30)로부터 영역상자(B) 내의 객체와의 거리를 나타낸다. 수학식 7 및 수학식 8에서, X는 출력영상벡터(OV)의 중심좌표(X, Y) 중 수평 방향의 좌표이고, Y는 출력영상벡터(OV)의 중심좌표(X, Y) 중 수직 방향의 좌표이다. 그리고 x는 영역상자(B)의 중심좌표(x, y) 중 수평 방향의 좌표이고, y는 영역상자(B)의 중심좌표(x, y) 중 수직 방향의 좌표이다. 또한, 는 영상장치(30)의 카메라모듈의 초점 거리(focal length)를 나타낸다. In Equation 7, is the orientation angle in the horizontal direction, represents the orientation angle in the vertical direction. In Equation 8, d represents the distance from the
전술한 바와 같이, 영상장치(30)를 기준으로 영역상자(B) 내의 객체(선박)에 대한 방향각 및 거리가 산출되면, 정보처리부(400)는 산출된 방향각 및 거리와 영상장치(30)의 위치정보를 이용하여 영역상자(B)의 객체(선박)의 위치정보를 산출할 수 있다. 이에 따라, 정보처리부(400)는 식별장치(20)의 위치정보와 가장 근접한 영역상자(B)의 객체의 위치정보를 가지는 영역상자(B)를 검출할 수 있다. As described above, when the direction angle and distance to the object (ship) in the area box B are calculated based on the
다음으로, 정보처리부(400)는 S280 단계에서 검출된 영역상자(B)의 분류값에 따라 불법조업 여부를 판별한다. 즉, 정보처리부(400)는 영역상자(B)의 분류값을 확인하여 해당 선박이 조업상태인지 혹은 비조업상태인지 여부를 확인한다. 식별모델(DM)이 산출한 분류값은 객체가 선박의 조업상태를 나타내는 제1 클래스일 확률 및 선박의 비조업상태를 나타내는 제2 클래스일 확률을 포함한다. 이에 따라, 정보처리부(400)는 제1 클래스일 확률이 소정 임계치 이상이면서 제2 클래스일 확률 보다 높으면, 영역상자(B)의 선박이 조업상태인 것으로 판단한다. 이러한 분류값을 기초로 하는 판단에 따라 해당 선박이 조업상태인 경우, 정보처리부(400)는 앞서 설명된(S220, S230) 조업정보에 의거하여 허가 영역 및 허가 시간에 부합하지 않는 영역 혹은 시간에 조업 중이기 때문에 불법조업인 것으로 판단할 수 있다. Next, the
반면, 정보처리부(400)는 제2 클래스일 확률이 소정 임계치 이상이면서 제1 클래스일 확률 보다 높으면, 해당 영역상자(B)의 선박이 비조업상태인 것으로 판단한다. 이에 따라, 정보처리부(400)는 조업 자체를 하지 않았기 때문에 해당 영역상자(B)의 선박에 대해 불법조업이 아닌 것으로 판단한다. On the other hand, the
도 7은 본 발명의 실시예에 따른 컴퓨팅 장치를 나타내는 도면이다. 도 7의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 장치, 예컨대, 감시장치(10)가 될 수 있다. 7 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device TN100 of FIG. 7 may be a device described herein, for example, the
도 7의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.In the embodiment of FIG. 7 , the computing device TN100 may include at least one processor TN110, a transceiver TN120, and a memory TN130. In addition, the computing device TN100 may further include a storage device TN140, an input interface device TN150, and an output interface device TN160. Elements included in the computing device TN100 may communicate with each other by being connected by a bus TN170.
프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다. The processor TN110 may execute program commands stored in at least one of the memory TN130 and the storage device TN140. The processor TN110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. Processor TN110 may be configured to implement procedures, functions, methods, and the like described in relation to embodiments of the present invention. The processor TN110 may control each component of the computing device TN100.
메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다.Each of the memory TN130 and the storage device TN140 may store various information related to the operation of the processor TN110. Each of the memory TN130 and the storage device TN140 may include at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory TN130 may include at least one of read only memory (ROM) and random access memory (RAM).
송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다. The transmitting/receiving device TN120 may transmit or receive a wired signal or a wireless signal. The transmitting/receiving device TN120 may perform communication by being connected to a network.
한편, 앞서 설명된 본 발명의 실시예에 따른 방법은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 와이어뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 와이어를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. On the other hand, the method according to the embodiment of the present invention described above can be implemented in the form of a program readable through various computer means and recorded on a computer-readable recording medium. Here, the recording medium may include program commands, data files, data structures, etc. alone or in combination. Program instructions recorded on the recording medium may be those specially designed and configured for the present invention, or those known and usable to those skilled in computer software. For example, recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks ( magneto-optical media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program commands may include high-level language wires that can be executed by a computer using an interpreter, as well as machine language wires such as those produced by a compiler. These hardware devices may be configured to act as one or more software modules to perform the operations of the present invention, and vice versa.
이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 이와 같이, 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 균등론에 따라 다양한 변화와 수정을 가할 수 있음을 이해할 것이다. The present invention has been described above using several preferred examples, but these examples are illustrative and not limiting. As such, those skilled in the art to which the present invention belongs will understand that various changes and modifications can be made according to the doctrine of equivalents without departing from the spirit of the present invention and the scope of rights set forth in the appended claims.
10: 감시장치
20: 식별장치
30: 영상장치
100: 학습부
200: 데이터처리부
300: 식별부
400: 정보처리부 10: monitoring device
20: identification device
30: imaging device
100: learning unit
200: data processing unit
300: identification unit
400: information processing unit
Claims (10)
선박에 장착된 식별장치로부터 상기 식별장치의 식별정보, 위치정보 및 시간정보를 지속적으로 수신하고, 복수의 영상장치로부터 복수의 감시영상을 수신하면, 수신된 복수의 감시영상 중 상기 시간정보 및 상기 위치정보에 대응하는 감시영상을 검출한 후, 검출된 감시영상을 정규화하여 감시영상벡터를 생성하는 데이터처리부;
학습된 가중치를 가지는 인공신경망인 식별모델을 이용하여 감시영상벡터로부터 선박이 차지하는 영역을 특정하면서 선박이 조업상태인지 혹은 비조업상태인지 여부를 나타내는 하나 이상의 영역상자를 도출하고, 도출된 영역상자를 포함하는 출력영상벡터를 도출하는 식별부; 및
출력영상벡터(OV)에 포함된 하나 이상의 영역상자 중 상기 식별장치의 상기 위치정보에 대응하는 영역상자를 검출하고, 검출된 영역상자를 통해 선박이 조업상태인지 혹은 비조업상태인지 여부를 확인하여 선박의 불법조업 여부를 판별하는 정보처리부;
를 포함하는 것을 특징으로 하는
불법 어업을 감시하기 위한 장치. In the device for monitoring illegal fishing,
When the identification information, location information, and time information of the identification device are continuously received from the identification device mounted on the ship, and a plurality of monitoring images are received from a plurality of imaging devices, the time information and the monitoring images are received from a plurality of monitoring images. After detecting the surveillance image corresponding to the location information, the data processing unit normalizes the detected surveillance image to generate a surveillance image vector;
Using the identification model, which is an artificial neural network with learned weights, the area occupied by the ship is specified from the surveillance image vector, and one or more area boxes indicating whether the vessel is in operation or non-operation are derived, and the derived area box is an identification unit for deriving an output image vector including; and
Among one or more area boxes included in the output image vector (OV), an area box corresponding to the location information of the identification device is detected, and whether the ship is operating or not operating is confirmed through the detected area box. Information processing unit that determines whether the ship is illegally fishing;
characterized in that it includes
A device for monitoring illegal fishing.
상기 식별모델은
상기 감시영상벡터를 복수의 셀로 구분한 후,
하나 이상의 영역상자를 도출하며,
상기 영역상자는
중심 좌표 및 상기 중심 좌표를 기준으로 폭과 높이를 나타내는 영역상자의 좌표,
상기 영역상자가 차지하는 영역이 상기 선박이 존재하는 영역과 일치하는 비율을 나타내는 신뢰도 및
상기 영역상자 내의 객체가 선박의 조업 상태를 나타내는 제1 클래스에 속할 확률 및 선박의 비조업상태를 나타내는 제2 클래스에 속할 확률을 포함하는 분류값을 포함하는 것을 특징으로 하는
불법 어업을 감시하기 위한 장치. According to claim 1,
The identification model is
After dividing the surveillance image vector into a plurality of cells,
Derive one or more domain boxes;
The area box is
Coordinates of the center coordinates and the area box representing the width and height based on the center coordinates;
Confidence indicating the rate at which the area occupied by the area box coincides with the area where the vessel exists; and
Characterized in that it includes a classification value including a probability that the object in the area box belongs to a first class representing the operating state of the ship and a probability belonging to a second class representing the non-operating state of the ship
A device for monitoring illegal fishing.
상기 정보처리부는
상기 하나 이상의 영역상자 내의 선박의 위치정보를 산출하고,
상기 하나 이상의 영역상자 중 상기 식별장치의 위치정보와 가장 근접한 선박의 위치정보를 가지는 영역상자를 검출하는 것을 특징으로 하는
불법 어업을 감시하기 위한 장치. According to claim 2,
The information processing unit
Calculate location information of ships in the one or more area boxes;
Characterized in that detecting an area box having location information of a ship closest to the location information of the identification device among the one or more area boxes
A device for monitoring illegal fishing.
상기 정보처리부는
상기 영상장치를 기준으로 상기 영역상자의 선박에 대한 방향각 및 상기 영역상자의 선박과의 거리를 산출하고,
상기 영상장치의 위치정보를 기준으로 상기 방향각 및 상기 거리에 따라 상기 영역상자 내의 선박의 위치정보를 도출하는 것을 특징으로 하는
불법 어업을 감시하기 위한 장치. According to claim 3,
The information processing unit
Calculate the direction angle of the area box with respect to the ship and the distance of the area box from the ship based on the imaging device;
Characterized in that the location information of the ship in the area box is derived according to the direction angle and the distance based on the location information of the imaging device
A device for monitoring illegal fishing.
상기 정보처리부는
수학식
에 따라 상기 방향각을 산출하고,
수학식
에 따라 상기 거리를 산출하며,
상기 는 수평 방향의 방향각이고,
상기 는 수직 방향의 방향각이고,
상기 d는 거리이고,
상기 X는 출력영상벡터의 중심좌표 중 수평 방향의 좌표이고,
상기 Y는 출력영상벡터의 중심좌표 중 수직 방향의 좌표이고,
상기 x는 영역상자의 중심좌표 중 수평 방향의 좌표이고,
상기 y는 영역상자의 중심좌표 중 수직 방향의 좌표이고,
상기 는 영상장치의 카메라모듈의 초점 거리인 것을 특징으로 하는
불법 어업을 감시하기 위한 장치. According to claim 4,
The information processing unit
math formula
Calculate the direction angle according to,
math formula
Calculate the distance according to,
remind is the orientation angle in the horizontal direction,
remind is the orientation angle in the vertical direction,
Where d is the distance,
The X is a coordinate in the horizontal direction among the coordinates of the center of the output image vector,
Y is the coordinate in the vertical direction among the coordinates of the center of the output image vector,
The x is a coordinate in the horizontal direction among the coordinates of the center of the region box,
y is the coordinate in the vertical direction among the coordinates of the center of the region box,
remind Is the focal length of the camera module of the imaging device
A device for monitoring illegal fishing.
상기 정보처리부는
상기 제1 클래스에 속할 확률이 소정 임계치 이상이면서 상기 제2 클래스에 속할 확률이 보다 높으면, 상기 영역상자의 선박이 조업상태인 것으로 판단하고,
상기 제2 클래스에 속할 확률이 소정 임계치 이상이면서 상기 제1 클래스에 속할 확률이 보다 높으면, 상기 영역상자의 선박이 비조업상태인 것으로 판단하는 것을 특징으로 하는
불법 어업을 감시하기 위한 장치. According to claim 3,
The information processing unit
If the probability of belonging to the first class is greater than a predetermined threshold and the probability of belonging to the second class is higher, it is determined that the vessel in the area box is in operation;
When the probability of belonging to the second class is greater than a predetermined threshold and the probability of belonging to the first class is higher, it is determined that the vessel in the area box is in a non-operational state.
A device for monitoring illegal fishing.
상기 데이터처리부는 상기 식별정보가 지시하는 선박에 대해 조업이 허가된 영역을 나타내는 허가 영역 및 해당 허가 영역에서 조업이 허가된 시간을 나타내는 허가 시간을 포함하는 조업정보를 추출하고,
상기 식별장치의 상기 위치정보 및 상기 시간정보가 조업정보의 허가 영역 및 허가 시간에 부합하지 않는 경우,
상기 시간정보 및 상기 위치정보에 대응하는 감시영상을 검출하는 것을 특징으로 하는
불법 어업을 감시하기 위한 장치. According to claim 1,
The data processing unit extracts operation information including a permitted area indicating an area in which operation is permitted for the vessel indicated by the identification information and a permitted time indicating a permitted time for operation in the permitted area,
If the location information and the time information of the identification device do not conform to the permitted area and permitted time of the operation information,
Characterized in that for detecting a surveillance image corresponding to the time information and the location information
A device for monitoring illegal fishing.
상기 데이터처리부는
수학식
에 따라 상기 감시영상의 명도를 조절하고,
수학식
에 따라 상기 감시영상벡터를 생성하며,
상기 u 및 상기 v는 픽셀 좌표이고,
상기 는 명도가 조절된 감시영상의 픽셀값이고,
상기 는 감시영상의 픽셀값이고,
상기 m은 감시영상의 평균 픽셀값이고,
상기 q는 감시영상의 픽셀값의 표준 편차이고,
상기 는 명암대비 지수이고,
상기 는 명도가 조절된 감시영상의 평균 픽셀값이고,
상기 는 감시영상벡터의 픽셀값인 것을 특징으로 하는
불법 어업을 감시하기 위한 장치. According to claim 1,
The data processing unit
math formula
Adjusting the brightness of the surveillance image according to,
math formula
Generating the surveillance image vector according to;
The u and the v are pixel coordinates,
remind is the pixel value of the surveillance image whose brightness is adjusted,
remind is the pixel value of the surveillance image,
The m is the average pixel value of the surveillance image,
q is the standard deviation of pixel values of the surveillance image;
remind is the contrast index,
remind is the average pixel value of the surveillance image whose brightness is adjusted,
remind Is the pixel value of the surveillance image vector
A device for monitoring illegal fishing.
학습용 감시영상벡터 및 학습용 감시영상벡터에 대응하는 실측영상벡터를 마련하고,
상기 학습용 감시영상벡터를 학습이 완료되지 않은 식별모델에 입력한 후,
식별모델이 상기 학습용 감시영상벡터에 대해 복수의 계층 간 학습이 완료되지 않은 가중치를 적용한 복수의 연산을 수행하여 학습용 출력영상벡터를 포함하는 출력영상벡터를 생성하면,
손실함수를 통해 생성된 출력영상벡터와 상기 실측영상벡터 간의 차이를 나타내는 전체 손실을 산출하고,
전체 손실이 최소가 되도록 손실모델의 가중치를 수정하는 최적화를 수행하는
학습부;
를 더 포함하는 것을 특징으로 하는
불법 어업을 감시하기 위한 장치. According to claim 1,
Preparing a monitoring image vector for learning and an actual measurement image vector corresponding to the monitoring image vector for learning;
After inputting the surveillance image vector for learning to an identification model in which learning is not completed,
When the identification model generates an output image vector including an output image vector for learning by performing a plurality of operations to which a weight for which learning between a plurality of layers has not been completed is applied to the surveillance image vector for learning,
Calculating a total loss representing a difference between an output image vector generated through a loss function and the measured image vector;
Optimization is performed to modify the weights of the loss model so that the total loss is minimized.
learning department;
characterized in that it further comprises
A device for monitoring illegal fishing.
데이터처리부가 선박에 장착된 식별장치로부터 상기 식별장치의 식별정보, 위치정보 및 시간정보를 지속적으로 수신하는 단계;
상기 데이터처리부가 복수의 영상장치로부터 복수의 감시영상을 수신하면, 수신된 복수의 감시영상 중 상기 시간정보 및 상기 위치정보에 대응하는 감시영상을 검출하는 단계;
상기 데이터처리부가 검출된 감시영상을 정규화하여 감시영상벡터를 생성하는 단계;
식별부가 학습된 가중치를 가지는 인공신경망인 식별모델을 이용하여 감시영상벡터로부터 선박이 차지하는 영역을 특정하면서 선박이 조업상태인지 혹은 비조업상태인지 여부를 나타내는 하나 이상의 영역상자를 도출하고, 도출된 영역상자를 포함하는 출력영상벡터를 도출하는 단계;
정보처리부가 출력영상벡터(OV)에 포함된 하나 이상의 영역상자 중 상기 식별장치의 상기 위치정보에 대응하는 영역상자를 검출하는 단계; 및
상기 정보처리부가 검출된 영역상자를 통해 선박이 조업상태인지 혹은 비조업상태인지 여부를 확인하여 선박의 불법조업 여부를 판별하는 단계;
를 포함하는 것을 특징으로 하는
불법 어업을 감시하기 위한 방법. In a method for monitoring illegal fishing,
Continuously receiving identification information, location information, and time information of the identification device from the identification device mounted on the ship by the data processing unit;
detecting, when the data processing unit receives a plurality of surveillance images from a plurality of imaging devices, a surveillance image corresponding to the time information and the location information among the plurality of surveillance images received;
generating a surveillance image vector by normalizing the detected surveillance image by the data processing unit;
The identification unit derives one or more area boxes indicating whether the vessel is in operation or non-operation status while specifying the area occupied by the vessel from the surveillance image vector using the identification model, which is an artificial neural network having learned weights, and the derived area deriving an output image vector including a box;
detecting, by an information processing unit, a region box corresponding to the location information of the identification device among one or more region boxes included in an output image vector (OV); and
determining whether the vessel is illegally operated by checking whether the vessel is in an operating state or a non-operating state through the detected region box by the information processing unit;
characterized in that it includes
Methods to monitor illegal fishing.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210187211 | 2021-12-24 | ||
KR20210187211 | 2021-12-24 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230097958A true KR20230097958A (en) | 2023-07-03 |
Family
ID=87157176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220039859A KR20230097958A (en) | 2021-12-24 | 2022-03-30 | Apparatus for monitoring illegal fishing based on artificial neural network and method therefor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230097958A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040075488A (en) | 2003-02-21 | 2004-08-30 | (주) 이에스텍 | Fishing Identification System |
-
2022
- 2022-03-30 KR KR1020220039859A patent/KR20230097958A/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040075488A (en) | 2003-02-21 | 2004-08-30 | (주) 이에스텍 | Fishing Identification System |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109635685B (en) | Target object 3D detection method, device, medium and equipment | |
CN109598241B (en) | Satellite image marine ship identification method based on Faster R-CNN | |
KR20210002104A (en) | Target detection and training of target detection networks | |
CN109460754B (en) | A kind of water surface foreign matter detecting method, device, equipment and storage medium | |
KR102108953B1 (en) | Robust camera and lidar sensor fusion method and system | |
CN112766221B (en) | Ship direction and position multitasking-based SAR image ship target detection method | |
US9904868B2 (en) | Visual attention detector and visual attention detection method | |
CN109145747A (en) | A kind of water surface panoramic picture semantic segmentation method | |
CN110969793B (en) | Method, system and storage medium for preventing ship intrusion at periphery of roundabout electronic purse net | |
US11107231B2 (en) | Object detection device, object detection method, and object detection program | |
KR102155724B1 (en) | Method and system for risk detection of objects in ships using deep neural networks | |
CN112651274B (en) | Road obstacle detection device, road obstacle detection method, and recording medium | |
CN113744262A (en) | Target segmentation detection method based on GAN and YOLO-v5 | |
KR102053906B1 (en) | Methods and system for real-time supervised learning using geo-spatial information | |
CN111524113A (en) | Lifting chain abnormity identification method, system, equipment and medium | |
CN112785557A (en) | Belt material flow detection method and device and belt material flow detection system | |
CN114926726A (en) | Unmanned ship sensing method based on multitask network and related equipment | |
KR102311089B1 (en) | Apparatus and method for monitoring the ocean using smart marine buoys | |
CN113065379B (en) | Image detection method and device integrating image quality and electronic equipment | |
KR20230097958A (en) | Apparatus for monitoring illegal fishing based on artificial neural network and method therefor | |
JP7184101B2 (en) | Ship behavior analysis device, ship behavior analysis method and program | |
CN115187936B (en) | Monitoring system and method for preventing offshore platform from climbing | |
KR102315080B1 (en) | Apparatus and method for monitoring the ocean using smart marine buoys | |
KR102583686B1 (en) | Method and apparatus for detecting objects | |
CN115995097A (en) | Deep learning-based safety helmet wearing standard judging method |