KR20230097958A - Apparatus for monitoring illegal fishing based on artificial neural network and method therefor - Google Patents

Apparatus for monitoring illegal fishing based on artificial neural network and method therefor Download PDF

Info

Publication number
KR20230097958A
KR20230097958A KR1020220039859A KR20220039859A KR20230097958A KR 20230097958 A KR20230097958 A KR 20230097958A KR 1020220039859 A KR1020220039859 A KR 1020220039859A KR 20220039859 A KR20220039859 A KR 20220039859A KR 20230097958 A KR20230097958 A KR 20230097958A
Authority
KR
South Korea
Prior art keywords
area
image vector
box
ship
information
Prior art date
Application number
KR1020220039859A
Other languages
Korean (ko)
Inventor
백상규
임태호
고경남
류상옥
금지돈
주성영
오하늘
오선관
최재웅
Original Assignee
주식회사 해랑기술정책연구소
전라남도 신안군
전라남도 신안군
(주) 연안관리기술연구소
호서대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 해랑기술정책연구소, 전라남도 신안군, 전라남도 신안군, (주) 연안관리기술연구소, 호서대학교 산학협력단 filed Critical 주식회사 해랑기술정책연구소
Publication of KR20230097958A publication Critical patent/KR20230097958A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Primary Health Care (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

불법 어업을 감시하기 위한 장치는 선박에 장착된 식별장치로부터 상기 식별장치의 식별정보, 위치정보 및 시간정보를 지속적으로 수신하고, 복수의 영상장치로부터 복수의 감시영상을 수신하면, 수신된 복수의 감시영상 중 상기 시간정보 및 상기 위치정보에 대응하는 감시영상을 검출한 후, 검출된 감시영상을 정규화하여 감시영상벡터를 생성하는 데이터처리부와, 학습된 가중치를 가지는 인공신경망인 식별모델을 이용하여 감시영상벡터로부터 선박이 차지하는 영역을 특정하면서 선박이 조업상태인지 혹은 비조업상태인지 여부를 나타내는 하나 이상의 영역상자를 도출하고, 도출된 영역상자를 포함하는 출력영상벡터를 도출하는 식별부와, 출력영상벡터(OV)에 포함된 하나 이상의 영역상자 중 상기 식별장치의 상기 위치정보에 대응하는 영역상자를 검출하고, 검출된 영역상자를 통해 선박이 조업상태인지 혹은 비조업상태인지 여부를 확인하여 선박의 불법조업 여부를 판별하는 정보처리부를 포함한다. A device for monitoring illegal fishing continuously receives identification information, location information, and time information of the identification device from an identification device mounted on a ship, and when a plurality of monitoring images are received from a plurality of imaging devices, a plurality of received After detecting the surveillance image corresponding to the time information and the location information among the surveillance images, a data processing unit that normalizes the detected surveillance images to generate surveillance image vectors, and an identification model, which is an artificial neural network having learned weights, is used. An identification unit for deriving one or more region boxes indicating whether the ship is in an operating state or a non-operating state while specifying an area occupied by the ship from the surveillance image vector, and deriving an output image vector including the derived region box; Among one or more area boxes included in the image vector (OV), an area box corresponding to the location information of the identification device is detected, and whether the ship is operating or not operating is confirmed through the detected area box. Includes an information processing unit that determines whether or not illegal fishing of

Description

인공신경망 기반의 불법 어업을 감시하기 위한 장치 및 이를 위한 방법{Apparatus for monitoring illegal fishing based on artificial neural network and method therefor}Apparatus for monitoring illegal fishing based on artificial neural network and method therefor}

본 발명은 불법 어업 감시 기술에 관한 것으로, 보다 상세하게는, 인공신경망 기반의 불법 어업을 감시하기 위한 장치 및 이를 위한 방법에 관한 것이다. The present invention relates to a technology for monitoring illegal fishing, and more particularly, to a device and method for monitoring illegal fishing based on an artificial neural network.

수산자원은 전통적으로 무주물로 인식되어 있기 때문에 선점논리에 의해 무분별하게 개발되었고, 수산물 증산정책에 집중된 국가의 어업관리업무는 자원의 보존·관리보다는 어업조정과 어업질서 유지에만 집중되어 온 것이 사실이다. 그 결과 우리나라의 연근해어업은 자원감소, 어장축소, 어장환경의 오염, 과도한 어선세력, 어업경비의 급증 등으로 인하여 산업적 기반이 붕괴될 위기에 직면해 있다고 해도 과언이 아니다. 이와 같이 수산업 경영환경이 극도로 악화된 원인은 국제어업질서의 변화에 따른 어장의 축소, 수산업의 환경 변화에 탄력적으로 대응하지 못한 어업허가제도의 원천적 결함, 어업인의 무분별한 어획경쟁과 과잉투자 등에 기인하기도 하지만, 최소한의 자원보존조치 마저도 무시하는 불법어업에 기인하는 바 크다고 할 수 있다. Since fishery resources are traditionally recognized as non-maintenance items, they have been developed indiscriminately by the logic of preoccupation, and the fact is that the government's fisheries management tasks focused on the policy of increasing aquatic products production have focused only on fishery coordination and maintenance of fishery order rather than conservation and management of resources. am. As a result, it is not an exaggeration to say that Korea's coastal fishing industry is facing the risk of collapse of its industrial base due to resource reduction, fishing ground reduction, pollution of the fishing ground environment, excessive fishing boat power, and rapid increase in fishing expenses. The reasons for the extremely deteriorating business environment of the fishery industry are the reduction of fishing grounds due to changes in the international fishery order, the original defect of the fishery permit system that did not flexibly respond to changes in the environment of the fishery industry, and the reckless competition and excessive investment by fishermen. However, it can be said that it is largely due to illegal fishing that ignores even the minimum resource conservation measures.

불법어업을 근절하기 위하여 정부차원에서 유관기관과 공동으로 단속할 뿐만 아니라, 어업자 스스로 준법어업을 이행하도록 홍보하고 있으나, 불법어업이 단순한 법규적 문제가 아니라, 생계유지적인 측면과 불법어업이 갖는 경제적 측면 및 사회구조적 측면이 복합적으로 작용하고 있기 때문에 좀처럼 근절되지 않고 있다.In order to eradicate illegal fishing, the government not only cracks down with related organizations, but also promotes fishermen to practice law-abiding fishing. It is seldom eradicated because the aspects of social structure and social structure are working in a complex way.

불법어업의 형태를 보면, 법률에서 허용되지 않는 방법으로 행하는 어업, 어업허가나 면허를 받지 아니하고 행하는 어업, 어업허가 또는 면허를 받은 어업자가 허가 또는 면허의 내용과 다른 어선, 어구, 어법으로 행하는 어업 등으로 대별할 수 있다. 이러한 불법어업은 어업질서를 문란하게 할 뿐만 아니라, 자원보호에 악영향을 미치며, 정부의 어업정책 수행을 방해하는 등 사회적으로 미치는 파급효과는 매우 크다고 할 것이다. In terms of the types of illegal fishing, fishing conducted in a method not permitted by law, fishing conducted without obtaining a fishing permit or license, fishing conducted by a fisherman who has obtained a fishing permit or license using a fishing boat, fishing gear, or fishing method that is different from the contents of the permit or license etc. can be distinguished. Such illegal fishing not only disturbs the fishery order, but also adversely affects the protection of resources and hinders the implementation of the government's fisheries policy.

한국공개특허 제2004-0075488호 (2004년08월30일 공개)Korean Patent Publication No. 2004-0075488 (published on August 30, 2004)

따라서 상술한 바와 같은 점을 감안한 본 발명은 목적은 인공신경망 기반의 불법 어업을 감시하기 위한 장치 및 이를 위한 방법을 제공함에 있다. Therefore, in view of the above points, an object of the present invention is to provide a device and method for monitoring illegal fishing based on an artificial neural network.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 불법 어업을 감시하기 위한 장치는 선박에 장착된 식별장치로부터 상기 식별장치의 식별정보, 위치정보 및 시간정보를 지속적으로 수신하고, 복수의 영상장치로부터 복수의 감시영상을 수신하면, 수신된 복수의 감시영상 중 상기 시간정보 및 상기 위치정보에 대응하는 감시영상을 검출한 후, 검출된 감시영상을 정규화하여 감시영상벡터를 생성하는 데이터처리부와, 학습된 가중치를 가지는 인공신경망인 식별모델을 이용하여 감시영상벡터로부터 선박이 차지하는 영역을 특정하면서 선박이 조업상태인지 혹은 비조업상태인지 여부를 나타내는 하나 이상의 영역상자를 도출하고, 도출된 영역상자를 포함하는 출력영상벡터를 도출하는 식별부와, 출력영상벡터(OV)에 포함된 하나 이상의 영역상자 중 상기 식별장치의 상기 위치정보에 대응하는 영역상자를 검출하고, 검출된 영역상자를 통해 선박이 조업상태인지 혹은 비조업상태인지 여부를 확인하여 선박의 불법조업 여부를 판별하는 정보처리부를 포함한다. A device for monitoring illegal fishing according to a preferred embodiment of the present invention for achieving the above object continuously receives identification information, location information and time information of the identification device from an identification device mounted on a ship, When a plurality of monitoring images are received from a plurality of imaging devices, monitoring images corresponding to the time information and location information are detected from among the plurality of monitoring images received, and then the detected monitoring images are normalized to generate a monitoring image vector. By using the data processing unit and the identification model, which is an artificial neural network having learned weights, the area occupied by the vessel is specified from the surveillance image vector, and one or more area boxes indicating whether the vessel is in operation or non-operation are derived and derived. an identification unit for deriving an output image vector including an area box of the detected region; and detecting a region box corresponding to the location information of the identification device among one or more region boxes included in the output image vector (OV), and detecting the detected region box. It includes an information processing unit that determines whether the vessel is illegally fishing by checking whether the vessel is in an operating state or a non-fishing state through

상기 식별모델은 상기 감시영상벡터를 복수의 셀로 구분한 후, 하나 이상의 영역상자를 도출하며, 상기 영역상자는 중심 좌표 및 상기 중심 좌표를 기준으로 폭과 높이를 나타내는 영역상자의 좌표, 상기 영역상자가 차지하는 영역이 상기 선박이 존재하는 영역과 일치하는 비율을 나타내는 신뢰도 및 상기 영역상자 내의 객체가 선박의 조업 상태를 나타내는 제1 클래스에 속할 확률 및 선박의 비조업상태를 나타내는 제2 클래스에 속할 확률을 포함하는 분류값을 포함한다. The identification model divides the surveillance image vector into a plurality of cells and then derives one or more region boxes. Confidence indicating the rate at which the area occupied by corresponds to the area where the ship exists, and the probability that the object in the area box belongs to the first class representing the operating state of the ship and the probability that it belongs to the second class representing the non-operating state of the ship Includes a classification value that includes

상기 정보처리부는 상기 하나 이상의 영역상자 내의 선박의 위치정보를 산출하고, 상기 하나 이상의 영역상자 중 상기 식별장치의 위치정보와 가장 근접한 선박의 위치정보를 가지는 영역상자를 검출하는 것을 특징으로 한다. The information processing unit is characterized in that the information processing unit calculates ship position information in the one or more region boxes, and detects the region box having the ship position information closest to the position information of the identification device among the one or more region boxes.

상기 정보처리부는 상기 영상장치를 기준으로 상기 영역상자의 선박에 대한 방향각 및 상기 영역상자의 선박과의 거리를 산출하고, 상기 영상장치의 위치정보를 기준으로 상기 방향각 및 상기 거리에 따라 상기 영역상자 내의 선박의 위치정보를 도출하는 것을 특징으로 한다. The information processing unit calculates the direction angle of the area box with respect to the ship and the distance of the area box from the ship based on the imaging device, and calculates the direction angle and the distance based on the location information of the imaging device. It is characterized in that the location information of the ship in the area box is derived.

상기 정보처리부는 수학식

Figure pat00001
,
Figure pat00002
에 따라 상기 방향각을 산출하고, 수학식
Figure pat00003
에 따라 상기 거리를 산출한다. The information processing unit Equation
Figure pat00001
,
Figure pat00002
Calculate the orientation angle according to the equation
Figure pat00003
Calculate the distance according to

여기서, 상기

Figure pat00004
는 수평 방향의 방향각이고, 상기
Figure pat00005
는 수직 방향의 방향각이고, 상기 d는 거리이고, 상기 X는 출력영상벡터의 중심좌표 중 수평 방향의 좌표이고, 상기 Y는 출력영상벡터의 중심좌표 중 수직 방향의 좌표이고, 상기 x는 영역상자의 중심좌표 중 수평 방향의 좌표이고, 상기 y는 영역상자의 중심좌표 중 수직 방향의 좌표이고, 상기
Figure pat00006
는 영상장치의 카메라모듈의 초점 거리인 것을 특징으로 한다. here, above
Figure pat00004
is the orientation angle in the horizontal direction, and
Figure pat00005
is a direction angle in the vertical direction, d is a distance, X is a coordinate in the horizontal direction among the coordinates of the center of an output image vector, Y is a coordinate in the vertical direction among the coordinates of the center of an output image vector, and x is an area is the coordinate in the horizontal direction among the coordinates of the center of the box, y is the coordinate in the vertical direction among the coordinates of the center of the area box,
Figure pat00006
Is the focal length of the camera module of the imaging device.

상기 정보처리부는 상기 제1 클래스에 속할 확률이 소정 임계치 이상이면서 상기 제2 클래스에 속할 확률이 보다 높으면, 상기 영역상자의 선박이 조업상태인 것으로 판단하고, 상기 제2 클래스에 속할 확률이 소정 임계치 이상이면서 상기 제1 클래스에 속할 확률이 보다 높으면, 상기 영역상자의 선박이 비조업상태인 것으로 판단하는 것을 특징으로 한다. If the probability of belonging to the first class is greater than a predetermined threshold and the probability of belonging to the second class is higher, the information processing unit determines that the ship in the area box is in an operating state, and the probability of belonging to the second class exceeds a predetermined threshold. If the probability of belonging to the first class is higher than the above, it is characterized in that it is determined that the vessel of the area box is in a non-operational state.

상기 데이터처리부는 상기 식별정보가 지시하는 선박에 대해 조업이 허가된 영역을 나타내는 허가 영역 및 해당 허가 영역에서 조업이 허가된 시간을 나타내는 허가 시간을 포함하는 조업정보를 추출하고, 상기 식별장치의 상기 위치정보 및 상기 시간정보가 조업정보의 허가 영역 및 허가 시간에 부합하지 않는 경우, 상기 시간정보 및 상기 위치정보에 대응하는 감시영상을 검출하는 것을 특징으로 한다. The data processing unit extracts operation information including a permitted area indicating an area in which operation is permitted for the vessel indicated by the identification information and a permitted time indicating a permitted time for operation in the permitted area, and When the location information and the time information do not conform to the permitted area and permitted time of the operation information, a monitoring image corresponding to the time information and the location information is detected.

상기 데이터처리부는 수학식

Figure pat00007
에 따라 상기 감시영상의 명도를 조절하고, 수학식
Figure pat00008
에 따라 상기 감시영상벡터를 생성한다. The data processing unit Equation
Figure pat00007
Adjust the brightness of the surveillance image according to the equation
Figure pat00008
The surveillance image vector is generated according to the above.

여기서, 상기 u 및 상기 v는 픽셀 좌표이고, 상기

Figure pat00009
는 명도가 조절된 감시영상의 픽셀값이고, 상기
Figure pat00010
는 감시영상의 픽셀값이고, 상기 m은 감시영상의 평균 픽셀값이고, 상기 q는 감시영상의 픽셀값의 표준 편차이고, 상기
Figure pat00011
는 명암대비 지수이고, 상기
Figure pat00012
는 명도가 조절된 감시영상의 평균 픽셀값이고, 상기
Figure pat00013
는 감시영상벡터의 픽셀값인 것을 특징으로 한다. Here, the u and the v are pixel coordinates, and the
Figure pat00009
Is a pixel value of the surveillance image whose brightness is adjusted,
Figure pat00010
is the pixel value of the surveillance image, m is the average pixel value of the surveillance image, q is the standard deviation of the pixel values of the surveillance image,
Figure pat00011
is the contrast index, and
Figure pat00012
Is the average pixel value of the surveillance image whose brightness is adjusted,
Figure pat00013
is a pixel value of a surveillance image vector.

상기 장치는 학습용 감시영상벡터 및 학습용 감시영상벡터에 대응하는 실측영상벡터를 마련하고, 상기 학습용 감시영상벡터를 학습이 완료되지 않은 식별모델에 입력한 후, 식별모델이 상기 학습용 감시영상벡터에 대해 복수의 계층 간 학습이 완료되지 않은 가중치를 적용한 복수의 연산을 수행하여 학습용 출력영상벡터를 포함하는 출력영상벡터를 생성하면, 손실함수를 통해 생성된 출력영상벡터와 상기 실측영상벡터 간의 차이를 나타내는 전체 손실을 산출하고, 전체 손실이 최소가 되도록 손실모델의 가중치를 수정하는 최적화를 수행하는 학습부를 더 포함한다. The apparatus prepares a surveillance video vector for learning and a measured video vector corresponding to the surveillance video vector for learning, inputs the surveillance video vector for learning to an identification model whose learning has not been completed, and then the identification model determines the surveillance video vector for learning. When an output image vector including an output image vector for learning is generated by performing a plurality of operations applying weights for which learning between a plurality of layers is not completed, the difference between the output image vector generated through the loss function and the measured image vector is represented. A learning unit that calculates a total loss and performs optimization of correcting weights of the loss model so that the total loss is minimized is further included.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 불법 어업을 감시하기 위한 방법은 데이터처리부가 선박에 장착된 식별장치로부터 상기 식별장치의 식별정보, 위치정보 및 시간정보를 지속적으로 수신하는 단계와, 상기 데이터처리부가 복수의 영상장치로부터 복수의 감시영상을 수신하면, 수신된 복수의 감시영상 중 상기 시간정보 및 상기 위치정보에 대응하는 감시영상을 검출하는 단계와, 상기 데이터처리부가 검출된 감시영상을 정규화하여 감시영상벡터를 생성하는 단계와, 식별부가 학습된 가중치를 가지는 인공신경망인 식별모델을 이용하여 감시영상벡터로부터 선박이 차지하는 영역을 특정하면서 선박이 조업상태인지 혹은 비조업상태인지 여부를 나타내는 하나 이상의 영역상자를 도출하고, 도출된 영역상자를 포함하는 출력영상벡터를 도출하는 단계와, 정보처리부가 출력영상벡터(OV)에 포함된 하나 이상의 영역상자 중 상기 식별장치의 상기 위치정보에 대응하는 영역상자를 검출하는 단계와, 상기 정보처리부가 검출된 영역상자를 통해 선박이 조업상태인지 혹은 비조업상태인지 여부를 확인하여 선박의 불법조업 여부를 판별하는 단계를 포함한다. In order to achieve the above object, in a method for monitoring illegal fishing according to a preferred embodiment of the present invention, the data processing unit continuously transmits identification information, location information, and time information of the identification device from an identification device mounted on a ship. receiving, when the data processing unit receives a plurality of surveillance images from a plurality of imaging devices, detecting a surveillance image corresponding to the time information and the location information among the plurality of surveillance images received; and processing the data. Generating a surveillance image vector by normalizing the surveillance image detected by the sub; and identifying the region occupied by the ship from the surveillance image vector by using an identification model, an artificial neural network having learned weights in the identification section, to determine whether the ship is in operating state or not. Deriving one or more region boxes indicating whether or not the operating state is in operation, and deriving an output image vector including the derived region boxes; Detecting a region box corresponding to the location information of and determining whether the ship is operating illegally by checking whether the ship is operating or not operating through the detected region box by the information processing unit. do.

상기 출력영상벡터를 도출하는 단계는 상기 식별모델이 상기 감시영상벡터를 복수의 셀로 구분한 후, 하나 이상의 영역상자를 도출하며, 상기 영역상자는 중심 좌표 및 상기 중심 좌표를 기준으로 폭과 높이를 나타내는 영역상자의 좌표, 상기 영역상자가 차지하는 영역이 상기 선박이 존재하는 영역과 일치하는 비율을 나타내는 신뢰도 및 상기 영역상자 내의 객체가 선박의 조업 상태를 나타내는 제1 클래스에 속할 확률 및 선박의 비조업상태를 나타내는 제2 클래스에 속할 확률을 포함하는 분류값을 포함한다. In the step of deriving the output image vector, after the identification model divides the monitoring image vector into a plurality of cells, one or more area boxes are derived, and the area box has center coordinates and width and height based on the center coordinates. Coordinates of the region box, reliability representing the rate at which the region occupied by the region box coincides with the region in which the ship exists, and the probability that an object in the region box belongs to the first class representing the operating state of the ship and the ship's non-operation and a classification value including a probability of belonging to the second class representing the state.

상기 위치정보에 대응하는 영역상자를 검출하는 단계는 상기 정보처리부가 상기 하나 이상의 영역상자의 선박의 위치정보를 산출하는 단계와, 상기 정보처리부가 상기 하나 이상의 영역상자 중 상기 식별장치의 위치정보와 가장 근접한 선박의 위치정보를 가지는 영역상자를 검출하는 단계를 포함한다. The step of detecting the area box corresponding to the location information includes the step of calculating, by the information processing unit, the location information of the ship of the one or more area boxes, and the information processing unit calculating the location information of the identification device among the one or more area boxes and and detecting a region box having location information of the nearest ship.

상기 선박의 위치정보를 산출하는 단계는 상기 정보처리부가 상기 영상장치를 기준으로 상기 영역상자의 선박에 대한 방향각 및 상기 영역상자의 선박과의 거리를 산출하는 단계와, 상기 정보처리부가 상기 영상장치의 위치정보를 기준으로 상기 방향각 및 상기 거리에 따라 상기 영역상자 내의 선박의 위치정보를 도출하는 단계를 포함한다. The calculating of the location information of the ship may include calculating, by the information processing unit, the direction angle of the area box with respect to the ship and the distance between the area box and the ship based on the imaging device, and the information processing unit calculating the image and deriving location information of a ship in the region box according to the direction angle and the distance based on the location information of the device.

상기 영역상자의 선박에 대한 방향각 및 상기 영역상자의 선박과의 거리를 산출하는 단계는 상기 정보처리부가 수학식

Figure pat00014
Figure pat00015
에 따라 상기 방향각을 산출하는 단계와, 상기 정보처리부가 수학식
Figure pat00016
에 따라 상기 거리를 산출하는 단계를 포함한다. Calculating the direction angle of the area box with respect to the ship and the distance of the area box from the ship is performed by the information processing unit using the equation
Figure pat00014
Figure pat00015
Calculating the direction angle according to, and the information processing unit Equation
Figure pat00016
and calculating the distance according to

여기서, 상기

Figure pat00017
는 수평 방향의 방향각이고, 상기
Figure pat00018
는 수직 방향의 방향각이고, 상기 d는 거리이고, 상기 X는 출력영상벡터의 중심좌표 중 수평 방향의 좌표이고, 상기 Y는 출력영상벡터의 중심좌표 중 수직 방향의 좌표이고, 상기 x는 영역상자의 중심좌표 중 수평 방향의 좌표이고, 상기 y는 영역상자의 중심좌표 중 수직 방향의 좌표이고, 상기
Figure pat00019
는 영상장치의 카메라모듈의 초점 거리인 것을 특징으로 한다. here, above
Figure pat00017
is the orientation angle in the horizontal direction, and
Figure pat00018
is a direction angle in the vertical direction, d is a distance, X is a coordinate in the horizontal direction among the coordinates of the center of an output image vector, Y is a coordinate in the vertical direction among the coordinates of the center of an output image vector, and x is an area is the coordinate in the horizontal direction among the coordinates of the center of the box, y is the coordinate in the vertical direction among the coordinates of the center of the area box,
Figure pat00019
Is the focal length of the camera module of the imaging device.

상기 선박의 불법조업 여부를 판별하는 단계는 상기 정보처리부가 상기 제1 클래스에 속할 확률이 소정 임계치 이상이면서 상기 제2 클래스에 속할 확률이 보다 높으면, 상기 영역상자의 선박이 조업상태인 것으로 판단하고, 상기 제2 클래스에 속할 확률이 소정 임계치 이상이면서 상기 제1 클래스에 속할 확률이 보다 높으면, 상기 영역상자의 선박이 비조업상태인 것으로 판단하는 단계를 포함한다. In the step of determining whether the vessel is illegally operated, if the information processing unit has a probability of belonging to the first class greater than a predetermined threshold and a probability of belonging to the second class is higher, it is determined that the vessel of the area box is in an operating state, , if the probability of belonging to the second class is greater than a predetermined threshold and the probability of belonging to the first class is higher, determining that the ship of the area box is in a non-operational state.

상기 감시영상을 검출하는 단계는 상기 데이터처리부가 상기 식별정보가 지시하는 선박에 대해 조업이 허가된 영역을 나타내는 허가 영역 및 해당 허가 영역에서 조업이 허가된 시간을 나타내는 허가 시간을 포함하는 조업정보를 추출하는 단계와, 상기 데이터처리부가 상기 식별장치의 상기 위치정보 및 상기 시간정보가 조업정보의 허가 영역 및 허가 시간에 부합하지 않는 경우, 상기 시간정보 및 상기 위치정보에 대응하는 감시영상을 검출하는 단계를 포함한다. The step of detecting the monitoring image may include operation information including a permitted area indicating an area in which operation is permitted for the vessel indicated by the identification information and a permitted time indicating a permitted time for operation in the permitted area by the data processing unit. extracting, and detecting a surveillance image corresponding to the time information and the location information when the location information and the time information of the identification device do not conform to the permitted area and permitted time of the operation information by the data processing unit Include steps.

상기 감시영상벡터를 생성하는 단계는 상기 데이터처리부가 수학식

Figure pat00020
에 따라 상기 감시영상의 명도를 조절하고, 수학식
Figure pat00021
에 따라 상기 감시영상벡터를 생성한다. The step of generating the monitoring image vector is performed by the data processing unit by Equation
Figure pat00020
Adjust the brightness of the surveillance image according to the equation
Figure pat00021
The surveillance image vector is generated according to the above.

여기서, 상기 u 및 상기 v는 픽셀 좌표이고, 상기

Figure pat00022
는 명도가 조절된 감시영상의 픽셀값이고, 상기
Figure pat00023
는 감시영상의 픽셀값이고, 상기 m은 감시영상의 평균 픽셀값이고, 상기 q는 감시영상의 픽셀값의 표준 편차이고, 상기
Figure pat00024
는 명암대비 지수이고, 상기
Figure pat00025
는 명도가 조절된 감시영상의 평균 픽셀값이고, 상기
Figure pat00026
는 감시영상벡터의 픽셀값인 것을 특징으로 한다. Here, the u and the v are pixel coordinates, and the
Figure pat00022
Is a pixel value of the surveillance image whose brightness is adjusted,
Figure pat00023
is the pixel value of the surveillance image, m is the average pixel value of the surveillance image, q is the standard deviation of the pixel values of the surveillance image,
Figure pat00024
is the contrast index, and
Figure pat00025
Is the average pixel value of the surveillance image whose brightness is adjusted,
Figure pat00026
is a pixel value of a surveillance image vector.

상기 방법은 상기 식별장치의 식별정보, 위치정보 및 시간정보를 지속적으로 수신하는 단계 전, 학습부가 학습용 감시영상벡터 및 학습용 감시영상벡터에 대응하는 실측영상벡터를 마련하는 단계와, 상기 학습부가 상기 학습용 감시영상벡터를 학습이 완료되지 않은 식별모델에 입력하는 단계와, 식별모델이 상기 학습용 감시영상벡터에 대해 복수의 계층 간 학습이 완료되지 않은 가중치를 적용한 복수의 연산을 수행하여 학습용 출력영상벡터를 포함하는 출력영상벡터를 생성하는 단계와, 상기 학습부가 손실함수를 통해 생성된 출력영상벡터와 상기 실측영상벡터 간의 차이를 나타내는 전체 손실을 산출하는 단계와, 상기 학습부가 전체 손실이 최소가 되도록 손실모델의 가중치를 수정하는 최적화를 수행하는 단계를 더 포함한다. The method includes, before the step of continuously receiving the identification information, location information, and time information of the identification device, a learning unit preparing a monitoring image vector for learning and an actual video vector corresponding to the monitoring image vector for learning, and the learning unit preparing the monitoring image vector for learning. The step of inputting a monitoring image vector for learning to an identification model for which learning has not been completed; and the identification model performing a plurality of calculations by applying weights for which learning has not been completed between a plurality of layers to the monitoring image vector for learning, and then output image vector for learning. Generating an output image vector including ; calculating, by the learning unit, a total loss representing a difference between an output image vector generated through a loss function and the measured image vector; The step of performing optimization to modify the weights of the loss model is further included.

본 발명은 인공신경망인 식별모델을 이용하여 선박을 식별하고, 식별된 선박의 불법 어업을 감시할 수 있다. The present invention can identify a vessel using an identification model, which is an artificial neural network, and monitor illegal fishing of the identified vessel.

도 1은 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 시스템의 구성을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 장치의 구성을 설명하기 위한 도면이다.
도 3은 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 식별모델을 설명하기 위한 도면이다.
도 4는 본 발명의 실시예에 따른 식별모델을 학습시키기 위한 실측영상벡터 및 식별모델이 산출하는 출력영상벡터를 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 식별모델(DM)을 학습시키는 방법을 설명하기 위한 흐름도이다.
도 6은 본 발명의 실시예에 따른 불법 어업을 감시하기 위한 방법을 설명하기 위한 흐름도이다.
도 7은 본 발명의 실시예에 따른 컴퓨팅 장치를 나타내는 도면이다.
1 is a diagram for explaining the configuration of a system for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention.
2 is a diagram for explaining the configuration of an apparatus for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention.
3 is a diagram for explaining an identification model for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention.
4 is a diagram for explaining an actual image vector for training an identification model and an output image vector calculated by the identification model according to an embodiment of the present invention.
5 is a flowchart for explaining a method of learning an identification model (DM) for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention.
6 is a flowchart illustrating a method for monitoring illegal fishing according to an embodiment of the present invention.
7 is a diagram illustrating a computing device according to an embodiment of the present invention.

본 발명의 상세한 설명에 앞서, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시예에 불과할 뿐, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다. Prior to the detailed description of the present invention, the terms or words used in this specification and claims described below should not be construed as being limited to a common or dictionary meaning, and the inventors should use their own invention in the best way. It should be interpreted as a meaning and concept corresponding to the technical idea of the present invention based on the principle that it can be properly defined as a concept of a term for explanation. Therefore, the embodiments described in this specification and the configurations shown in the drawings are only the most preferred embodiments of the present invention, and do not represent all of the technical ideas of the present invention, so various equivalents that can replace them at the time of the present application. It should be understood that there may be water and variations.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음을 유의해야 한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. At this time, it should be noted that the same components in the accompanying drawings are indicated by the same reference numerals as much as possible. In addition, detailed descriptions of well-known functions and configurations that may obscure the gist of the present invention will be omitted. For the same reason, some components in the accompanying drawings are exaggerated, omitted, or schematically illustrated, and the size of each component does not entirely reflect the actual size.

먼저, 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 시스템의 구성에 대해서 설명하기로 한다. 도 1은 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 시스템의 구성을 설명하기 위한 도면이다. 도 1을 참조하면, 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 시스템(10, 이하, '불법어업감시시스템'으로 칭함)은 감시장치(10), 식별장치(20) 및 영상장치(30)를 포함한다. First, the configuration of a system for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention will be described. 1 is a diagram for explaining the configuration of a system for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention. Referring to FIG. 1, a system for monitoring illegal fishing based on artificial neural networks (10, hereinafter referred to as 'illegal fishing monitoring system') according to an embodiment of the present invention includes a monitoring device 10 and an identification device 20 and an imaging device 30 .

식별장치(20)는 선박에 장착되며, 인공위성신호(예컨대, GPS(Global Positioning System) 신호) 기반의 식별장치(20) 혹은 선박의 현재 위치를 나타내는 위치정보 및 위치정보를 수신한 시간을 나타내는 시간 시간정보를 검출하고, 검출된 위치정보 및 시간정보를 식별장치(20)를 식별하기 위한 식별정보와 함께 감시장치(10)로 송출하기 위한 것이다. 이를 위하여, 식별장치(20)는 선박이 운행을 시작하면 지속적으로 인공위성신호(예컨대, GPS 신호) 기반의 위치정보 및 시간정보를 검출하는 위성신호처리부(미도시) 및 검출된 위치정보 및 시간정보를 감시장치(10)로 송출하는 통신부(미도시)를 포함한다. 식별장치(20)는 선박이 운행을 시작하면 지속적으로 위성신호처리부를 통해 인공위성신호(예컨대, GPS 신호) 기반의 위치정보 및 시간정보를 검출하고, 통신부를 통해 검출된 위치정보 및 시간정보와 함께 식별정보를 감시장치(10)로 송출한다. The identification device 20 is mounted on a ship, and the identification device 20 based on an artificial satellite signal (eg, a Global Positioning System (GPS) signal) or location information indicating the current location of the ship and time indicating the time at which the location information was received It is for detecting time information and transmitting the detected location information and time information together with identification information for identifying the identification device 20 to the monitoring device 10 . To this end, the identification device 20 includes a satellite signal processing unit (not shown) that continuously detects location information and time information based on artificial satellite signals (eg, GPS signals) when the ship starts operating, and the detected location information and time information. It includes a communication unit (not shown) that transmits to the monitoring device 10. The identification device 20 continuously detects location information and time information based on artificial satellite signals (eg, GPS signals) through the satellite signal processing unit when the ship starts operating, and together with the location information and time information detected through the communication unit. Identification information is sent to the monitoring device 10.

영상장치(30)는 감시영상을 촬영하고 촬영된 감시영상을 감시장치(10)로 전송하기 위한 것이다. 이러한 영상장치(30)는 CCTV(Closed-circuit Television)를 예시할 수 있다. 영상장치(30)는 감시영상을 촬영하기 위한 카메라모듈(미도시) 및 촬영된 감시영상을 유선 혹은 무선으로 전송하기 위한 통신모듈(미도시)을 포함한다. 복수의 영상장치(30)가 항만 주변에 걸쳐 설치된다. 영상장치(30)는 항만 주변의 지상에 설치되거나, 해상의 부표 등에 설치될 수 있다. 항만 주변의 해상 영역은 복수의 감시영역으로 구분되고, 구분된 복수의 감시영역은 복수의 영상장치(30) 각각에 할당된다. 이에 따라, 복수의 영상장치(30) 각각은 카메라모듈(미도시)을 통해 할당된 감시영역을 지속적으로 촬영하여 감시영상을 생성하고, 통신모듈(미도시)을 통해 생성된 감시영상을 감시장치(10)로 송출한다. The imaging device 30 is for capturing a monitoring image and transmitting the captured monitoring image to the monitoring device 10 . Such an imaging device 30 may be a closed-circuit television (CCTV). The imaging device 30 includes a camera module (not shown) for capturing surveillance images and a communication module (not shown) for transmitting the captured surveillance images by wire or wirelessly. A plurality of imaging devices 30 are installed across the periphery of the harbor. The imaging device 30 may be installed on the ground around a port or installed on a buoy in the sea. The maritime area around the harbor is divided into a plurality of surveillance areas, and the plurality of surveillance areas are assigned to each of the plurality of imaging devices 30 . Accordingly, each of the plurality of imaging devices 30 generates a surveillance image by continuously photographing the assigned surveillance area through a camera module (not shown), and monitors the generated surveillance image through a communication module (not shown). Send to (10).

감시장치(10)는 식별정보에 대응하여 선박을 식별하기 위한 정보인 선박정보와, 그 선박의 조업정보를 미리 저장한다. 여기서, 조업정보는 해당 선박의 조업이 허가된 영역을 나타내는 허가 영역 및 해당 허가 영역에서 조업이 허가된 시간을 나타내는 허가 시간을 포함한다. The monitoring device 10 stores in advance ship information, which is information for identifying a ship, and operation information of the ship corresponding to the identification information. Here, the operation information includes a permitted area indicating an area in which operation of the vessel is permitted and a permitted time indicating a time period during which operation is permitted in the permitted area.

감시장치(10)는 식별장치로부터 식별정보, 위치정보 및 시간정보를 지속적으로 수신할 수 있다. 그러면, 감시장치(10)는 식별장치(20)로부터 수신되는 식별정보를 이용하여 선박을 식별하고, 식별된 선박의 조업정보를 추출한 후, 수신된 위치정보 및 시간정보가 추출된 조업정보에 부합하는지 여부를 확인한다. 이에 따라, 감시장치(10)는 해당 선박이 허가되지 않은 시간에 허가되지 않은 영역에 위치하는지 여부를 확인할 수 있다. 또한, 감시장치(10)는 감시영상을 기초로 본 발명의 실시예에 따른 인공신경망 기반의 학습 모델(machine learning model 또는 deep learning model)인 식별모델(DM)을 생성할 수 있다. 또한, 감시장치(10)는 식별모델(DM)이 생성되면, 생성된 식별모델(DM)을 이용하여 선박이 조업 상태인지 혹은 비조업 상태인지 여부를 확인할 수 있다. 이에 따라, 감시장치(10)는 감시장치(10)는 해당 선박이 허가되지 않은 시간에 허가되지 않은 영역에 위치하면서, 선박이 조업상태이면, 해당 선박이 불법어업을 수행하고 있는 것으로 판별할 수 있다. The monitoring device 10 may continuously receive identification information, location information, and time information from the identification device. Then, the monitoring device 10 identifies the vessel using the identification information received from the identification device 20, extracts the operation information of the identified vessel, and then matches the received location information and time information with the extracted operation information. check whether it does Accordingly, the monitoring device 10 can check whether the vessel is located in an unlicensed area at an unauthorized time. In addition, the monitoring device 10 may generate an identification model (DM), which is a machine learning model or deep learning model based on an artificial neural network according to an embodiment of the present invention, based on the monitoring image. In addition, when the identification model (DM) is generated, the monitoring device 10 may check whether the ship is in an operating state or a non-operating state using the generated identification model (DM). Accordingly, the monitoring device 10 can determine that the vessel is engaged in illegal fishing when the vessel is located in an unlicensed area at an unlicensed time and the vessel is in an operating state. there is.

다음으로, 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 장치의 구성에 대해서 설명하기로 한다. 도 2는 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 장치의 구성을 설명하기 위한 도면이다. 도 3은 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 식별모델을 설명하기 위한 도면이다. 도 4는 본 발명의 실시예에 따른 식별모델을 학습시키기 위한 실측영상벡터 및 식별모델이 산출하는 출력영상벡터를 설명하기 위한 도면이다. Next, the configuration of an apparatus for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention will be described. 2 is a diagram for explaining the configuration of an apparatus for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention. 3 is a diagram for explaining an identification model for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention. 4 is a diagram for explaining an actual image vector for training an identification model and an output image vector calculated by the identification model according to an embodiment of the present invention.

도 2를 참조하면, 감시장치(10)는 학습부(100), 데이터처리부(200), 식별부(300) 및 정보처리부(400)를 포함한다. Referring to FIG. 2 , the monitoring device 10 includes a learning unit 100, a data processing unit 200, an identification unit 300, and an information processing unit 400.

학습부(100)는 인공신경망 기반의 학습모델인 식별모델(DM)을 학습(machine learning 또는 deep learning)을 통해 생성하기 위한 것이다. 학습부(100)는 도 3 및 도 4에 도시된 바와 같이, 식별모델(DM)이 감시영상벡터(IV)가 입력되면, 선박이 차지하는 영역을 특정하고, 영역상자(B) 내의 객체, 즉, 선박이 조업상태인지 혹은 비조업상태인지 여부를 나타내는 하나 이상의 영역상자(B: Bounding Box)를 포함하는 출력영상벡터(OV)를 도출하도록 학습시킨다. 학습부(100)가 식별모델(DM)을 생성하는 방법에 대해서는 아래에서 더 상세하게 설명될 것이다. The learning unit 100 is for generating an identification model (DM), which is an artificial neural network-based learning model, through machine learning or deep learning. As shown in FIGS. 3 and 4, the learning unit 100 specifies the area occupied by the ship when the surveillance image vector IV is input to the identification model DM, and the object within the area box B, that is, , Learn to derive an output image vector (OV) including one or more bounding boxes (B) indicating whether the ship is operating or non-operating. A method of generating the identification model (DM) by the learning unit 100 will be described in more detail below.

본 발명의 실시예에서 식별모델(DM)은 소프트웨어인 것으로 설명될 것이다. 하지만, 식별모델(DM)은 하드웨어 혹은 소프트웨어 및 하드웨어가 복합적으로 혼합된 형태로 구현될 수 있다. 일례로, 식별모델(DM)은 하나 이상의 연산 장치를 통해 구현될 수 있다. 예컨대, 이러한 연산 장치는 CPU(Central Processing Unit), GPU(graphics processing unit), NPU(Neural Processing Unit) 등을 예시할 수 있다. 또한, 식별모델(DM)은 예컨대, TPU(tensor processing unit)와 같은 하드웨어 가속기를 통해 구현될 수도 있다. In the embodiment of the present invention, the identification model (DM) will be described as being software. However, the identification model (DM) may be implemented in hardware or a complex mixture of software and hardware. For example, the identification model (DM) may be implemented through one or more computing devices. For example, such a computing device may include a central processing unit (CPU), a graphics processing unit (GPU), a neural processing unit (NPU), and the like. Also, the identification model (DM) may be implemented through a hardware accelerator such as, for example, a tensor processing unit (TPU).

식별모델(DM)은 복수의 계층을 포함하며, 복수의 계층 각각은 복수의 연산을 수행하기 위한 복수의 연산모듈을 포함한다. 어느 하나의 계층의 복수의 연산 결과 각각은 가중치가 적용되어 다음 계층에 전달된다. 이는 현 계층의 연산 결과에 가중치가 적용되어 다음 계층의 연산에 입력되는 것을 의미한다. 다른 말로, 식별모델(DM)은 복수의 계층의 가중치가 적용되는 복수의 연산을 수행한다. 복수의 계층은 컨볼루션(Convolution) 연산을 수행하는 컨볼루션계층(CVL: Convolution Layer), 다운샘플링(Down Sampling) 연산 혹은 업샘플링(Up Sampling) 연산을 수행하는 풀링계층(PLL: Pooling Layer), 활성화함수에 의한 연산을 수행하는 완전연결층(FCL: Fully Connected Layer) 등을 포함한다. 컨볼루션, 다운샘플링 및 업샘플링 연산 각각은 소정의 행렬로 이루어진 커널을 이용하며, 이러한 커널을 이루는 행렬의 원소의 값들이 가중치(w)가 된다. 여기서, 활성화함수는 시그모이드(Sigmoid), 하이퍼볼릭탄젠트(tanh: Hyperbolic tangent), ELU(Exponential Linear Unit), ReLU(Rectified Linear Unit), Leakly ReLU, Maxout, Minout, Softmax 등을 예시할 수 있다. 이러한 식별모델(DM)은 YOLO(You Only Look Once), YOLOv2, YOLO9000, YOLOv3, YOLOv4, YOLOv5 등의 알고리즘이 적용된 모델을 예시할 수 있다. The identification model DM includes a plurality of layers, and each of the plurality of layers includes a plurality of calculation modules for performing a plurality of calculations. Each of the plurality of calculation results of any one layer is transferred to the next layer after a weight is applied. This means that a weight is applied to the calculation result of the current layer and input to the calculation of the next layer. In other words, the identification model (DM) performs a plurality of calculations to which weights of a plurality of layers are applied. The plurality of layers include a Convolution Layer (CVL) that performs a convolution operation, a Pooling Layer (PLL) that performs a Down Sampling operation or an Up Sampling operation, It includes a Fully Connected Layer (FCL) that performs operations based on an activation function. Each of the convolution, downsampling, and upsampling operations uses a kernel composed of a predetermined matrix, and values of elements of the matrix constituting the kernel become weights w. Here, the activation function may include sigmoid, hyperbolic tangent (tanh), exponential linear unit (ELU), rectified linear unit (ReLU), leaky ReLU, Maxout, Minout, Softmax, and the like. . The identification model (DM) may exemplify models to which algorithms such as You Only Look Once (YOLO), YOLOv2, YOLO9000, YOLOv3, YOLOv4, and YOLOv5 are applied.

식별모델(DM)은 복수의 계층의 가중치가 적용되는 복수의 연산을 통해 하나 이상의 영역상자(B)를 검출한다. 영역상자(B)는 영역상자(B)의 좌표, 신뢰도 및 분류값을 포함한다. 영역상자(B)의 좌표는 출력영상벡터(OV)의 복수의 셀(예컨대, 도 4의 (1, 1) 내지 (4, 4)) 중 어느 하나에 중심 좌표(x, y)를 가지며, 중심 좌표를 기준으로 폭 및 높이(w, h)가 정의된다(x, y, w, h). 신뢰도(confidence: 0~1: 0%~100%)는 영역상자(B)가 차지하는 영역이 객체(obj), 즉, 선박이 차지하는 영역을 100% 포함하고 있는 실측상자(GT: ground-truth box)와 일치하는 정도를 나타낸다. 다른 말로, 신뢰도(confidence)는 즉, 영역상자(B)가 차지하는 영역이 선박이 차지하는 영역을 포함하는 정도를 나타낸다. 분류값은 영역상자(B) 내의 객체가 선박의 조업 상태를 나타내는 제1 클래스에 속할 확률 및 선박의 비조업상태를 나타내는 제2 클래스에 속할지에 대한 확률을 포함한다. 그런 다음, 식별모델(DM)은 검출된 하나 이상의 영역상자(B) 중 신뢰도가 소정 수치 이상인 영역상자(B)를 선택하고, 선택된 영역상자(B)를 입력영상벡터(IV)에 표시하여 출력영상벡터(OV)를 도출한다. The identification model (DM) detects one or more region boxes (B) through a plurality of calculations to which weights of a plurality of layers are applied. Area box B includes the coordinates, reliability and classification values of area box B. The coordinates of the area box B have center coordinates (x, y) in any one of a plurality of cells (eg, (1, 1) to (4, 4) in FIG. 4) of the output image vector (OV), The width and height (w, h) are defined based on the center coordinates (x, y, w, h). Confidence (0~1: 0%~100%) is a ground-truth box (GT: ground-truth box) in which the area occupied by the area box (B) contains 100% of the area occupied by the object (obj), that is, the ship. ) indicates the degree of agreement. In other words, confidence indicates the degree to which the area occupied by the area box B includes the area occupied by the ship. The classification value includes a probability that an object in the area box B belongs to a first class representing the operating state of the ship and a probability of belonging to a second class representing the non-operating state of the ship. Then, the identification model (DM) selects a region box (B) whose reliability is higher than a predetermined value among one or more detected region boxes (B), displays the selected region box (B) on the input image vector (IV), and outputs the result. An image vector (OV) is derived.

데이터처리부(200)는 복수의 영상장치(30)로부터 할당된 복수의 감시영역을 촬영한 복수의 감시영상을 지속적으로 수신하고, 선박에 장착된 식별장치(20)로부터 식별장치(20)의 식별정보, 위치정보 및 시간정보를 지속적으로 수신할 수 있다. 또한, 데이터처리부(200)는 식별장치(20)의 식별정보가 지시하는 선박의 조업정보를 추출할 수 있다. 여기서, 조업정보는 해당 선박의 조업이 허가된 영역을 나타내는 허가 영역 및 해당 허가 영역에서 조업이 허가된 시간을 나타내는 허가 시간을 포함한다. 그리고 데이터처리부(200)는 식별장치(20)의 위치정보 및 시간정보가 조업정보의 허가 영역 및 허가 시간에 부합하는지 여부를 판단할 수 있다. 이러한 판단 결과, 식별장치(20)의 위치정보 및 시간정보가 조업정보의 허가 영역 및 허가 시간에 부합하지 않으면, 데이터처리부(200)는 식별장치(20)가 송출한 위치정보에 해당하는 감시영역이 할당된 영상장치(30)를 선택하고, 선택된 영상장치(30)가 촬영한 감시영상 중 식별장치(20)가 송출한 시간정보에 대응하는 시간에 촬영된 감시영상을 검출한다. The data processing unit 200 continuously receives a plurality of monitoring images obtained by taking a plurality of surveillance areas allocated from a plurality of imaging devices 30, and identifies the identification device 20 from the identification device 20 mounted on the ship. Information, location information and time information can be continuously received. In addition, the data processing unit 200 may extract operation information of a ship indicated by the identification information of the identification device 20 . Here, the operation information includes a permitted area indicating an area in which operation of the vessel is permitted and a permitted time indicating a time period during which operation is permitted in the permitted area. Further, the data processing unit 200 may determine whether the location information and time information of the identification device 20 conform to the permitted area and permitted time of the operation information. As a result of this determination, if the location information and time information of the identification device 20 do not conform to the permitted area and permitted time of the operation information, the data processing unit 200 monitors the monitoring area corresponding to the location information transmitted by the identification device 20. The assigned imaging device 30 is selected, and among the monitoring images captured by the selected imaging device 30, a monitoring image captured at a time corresponding to the time information transmitted by the identification device 20 is detected.

그리고 데이터처리부(200)는 검출된 감시영상을 정규화하여 감시영상벡터를 생성한다. 이때, 데이터처리부(200)는 감시영상에서 선박이 부각되도록 감시영상벡터의 픽셀을 변환하여 감시영상벡터를 생성하기 위한 것이다. 이를 위하여, 데이터처리부(200)는 먼저, 감시영상의 명도(Brightness)를 조절한다. 이때, 데이터처리부(200)는 감시영상의 각 픽셀값을 다음의 수학식 1에 따라 수정하여 감시영상의 명도(Brightness)를 조절할 수 있다. The data processing unit 200 normalizes the detected surveillance image to generate a surveillance image vector. At this time, the data processing unit 200 converts pixels of the surveillance image vector so that the ship is highlighted in the surveillance image to generate the surveillance image vector. To this end, the data processing unit 200 first adjusts the brightness of the monitoring image. At this time, the data processor 200 may adjust the brightness of the surveillance image by modifying each pixel value of the surveillance image according to Equation 1 below.

Figure pat00027
Figure pat00027

여기서, u 및 v는 픽셀 좌표이고,

Figure pat00028
는 명도가 조절된 감시영상의 픽셀값이다. 또한,
Figure pat00029
는 감시영상의 픽셀값, m은 감시영상의 평균 픽셀값, q는 감시영상의 픽셀값의 표준 편차이다. where u and v are pixel coordinates,
Figure pat00028
is the pixel value of the surveillance image whose brightness is adjusted. also,
Figure pat00029
is the pixel value of the surveillance image, m is the average pixel value of the surveillance image, and q is the standard deviation of the pixel values of the surveillance image.

그런 다음, 데이터처리부(200)는 명도가 조절된 감시영상의 명암대비(constrast)를 증가시켜 감시영상벡터를 생성한다. 이때, 데이터처리부(200)는 명도가 조절된 감시영상의 평균 픽셀값을 기준으로 다음의 수학식 2와 같이 명암대비(contrast)를 증가시킨다. Then, the data processing unit 200 increases the contrast of the surveillance image whose brightness is adjusted to generate a surveillance image vector. At this time, the data processing unit 200 increases the contrast as shown in Equation 2 below based on the average pixel value of the monitoring image whose brightness is adjusted.

Figure pat00030
Figure pat00030

여기서, u 및 v는 픽셀 좌표이고,

Figure pat00031
는 명도가 조절된 감시영상의 픽셀값이다.
Figure pat00032
는 명암대비 지수이며, 미리 설정되는 값이다.
Figure pat00033
는 명도가 조절된 감시영상의 평균 픽셀값을 나타내며,
Figure pat00034
는 명암대비(contrast)가 증가된 감시영상, 즉, 감시영상벡터의 픽셀값이다. where u and v are pixel coordinates,
Figure pat00031
is the pixel value of the surveillance image whose brightness is adjusted.
Figure pat00032
is a contrast index and is a preset value.
Figure pat00033
represents the average pixel value of the surveillance image whose brightness is adjusted,
Figure pat00034
is a pixel value of a surveillance image with increased contrast, that is, a surveillance image vector.

식별부(300)는 식별모델(DM)을 이용하여 식별모델(DM)을 이용하여 감시영상벡터(IV)로부터 출력영상벡터(OV)를 도출하기 위한 것이다. 이를 위하여 식별부(300)는 데이터처리부(200)로부터 영상벡터가 입력되면, 입력된 영상벡터를 식별모델(DM)에 입력한다. 그러면, 식별모델(DM)은 복수의 계층 간 가중치가 적용되는 복수의 연산을 통해 하나 이상의 영역상자(B: Bounding Box)를 도출한다. 여기서, 도출된 하나 이상의 영역상자(B) 각각은 영역상자(B)의 좌표, 신뢰도(confidence: 0~1) 및 분류값(match rate)을 포함한다. 영역상자(B)의 좌표는 출력영상벡터(OV)를 복수의 셀로 구분했을 때, 복수의 셀 각각에서의 중심 좌표(x, y)와, 중심 좌표(x, y)를 기준으로 하는 폭(w) 및 높이(h)를 포함한다. 신뢰도(confidence)는 영역상자(B)가 차지하는 영역이 선박이 차지하는 영역을 모두 포함할 확률을 나타낸다. 분류값은 영역상자(B) 내의 객체가 선박의 조업 상태를 나타내는 제1 클래스에 속할 확률 및 선박의 비조업상태를 나타내는 제2 클래스에 속할지에 대한 확률을 포함한다. The identification unit 300 is for deriving an output image vector (OV) from a monitoring image vector (IV) by using the identification model (DM). To this end, when an image vector is input from the data processing unit 200, the identification unit 300 inputs the input image vector to the identification model DM. Then, the identification model (DM) derives one or more bounding boxes (B) through a plurality of calculations to which weights between a plurality of layers are applied. Here, each of the one or more derived region boxes (B) includes coordinates of the region box (B), confidence (0 to 1), and a match rate. When the output image vector (OV) is divided into a plurality of cells, the coordinates of the region box (B) are the center coordinates (x, y) of each cell and the width (based on the center coordinates (x, y)) w) and height (h). Confidence represents the probability that the area occupied by the area box B includes all the areas occupied by the ship. The classification value includes a probability that an object in the area box B belongs to a first class representing the operating state of the ship and a probability of belonging to a second class representing the non-operating state of the ship.

이어서, 식별모델(DM)은 도출된 하나 이상의 영역상자(B) 중 영역상자(B)의 신뢰도가 소정 수치, 예컨대, 1(100%) 이상인 영역상자(B)를 출력영상벡터(OV)에 시각화한다. 즉, 식별모델(DM)은 도 4에 도시된 바와 같이, 영영상자(B)의 좌표에 따라 영영상자(B)를 표시하고, 분류값을 표시하여 출력영상벡터(OV)를 도출한다. Subsequently, the identification model (DM) selects a region box (B) having a reliability of a predetermined value, for example, 1 (100%) or more, among one or more derived region boxes (B), in the output image vector (OV). Visualize. That is, as shown in FIG. 4, the identification model (DM) displays the video image B according to the coordinates of the video image B, displays the classification value, and derives the output image vector OV.

정보처리부(400)는 출력영상벡터(OV)의 하나 이상의 영역상자(B) 중 식별장치(20)가 장착된 선박을 특정하는 영역상자(B)를 검출하고, 검출된 영역상자(B)의 분류값을 통해 해당 선박이 조업상태인지 혹은 비조업상태인지 여부를 도출하기 위한 것이다. 이에 따라, 해당 선박이 허가되지 않은 영역 혹은 허가되지 않은 시간에 조업상태로 확인된 경우, 정보처리부(400)는 해당 선박이 불법조업인 것으로 판단할 수 있다. The information processing unit 400 detects an area box B specifying a ship on which the identification device 20 is installed among one or more area boxes B of the output image vector OV, and determines the number of the detected area boxes B. This is to derive whether the ship is in an operating state or a non-operating state through the classification value. Accordingly, when the corresponding vessel is confirmed to be operating in an unlicensed area or an unlicensed time, the information processing unit 400 may determine that the vessel is illegally operating.

다음으로, 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 식별모델(DM)을 학습시키는 방법에 대해서 설명하기로 한다. 도 5는 본 발명의 실시예에 따른 인공신경망 기반의 불법 어업을 감시하기 위한 식별모델(DM)을 학습시키는 방법을 설명하기 위한 흐름도이다. Next, a method for learning an identification model (DM) for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention will be described. 5 is a flowchart for explaining a method of learning an identification model (DM) for monitoring illegal fishing based on an artificial neural network according to an embodiment of the present invention.

도 3 내지 도 5를 참조하면, 학습부(100)는 S110 단계에서 학습 데이터를 마련한다. 학습 데이터는 학습용 감시영상벡터(IV) 및 학습용 감시영상벡터(IV)에 대응하는 실측영상벡터(GV)를 포함한다. 여기서, 실측영상벡터(GV)는 학습용 감시영상벡터(IV)의 레이블이다. 학습용 감시영상벡터(IV)는 영상장치(30)가 촬영한 감시영상을 감시영상벡터(IV)로 변환한 것이다. 학습용 감시영상을 감시영상벡터(IV)로 변환하는 방법은 앞서 설명된 바와 같이, 수학식 1 및 수학식 2를 통해 명도(Brightness)를 조절하고, 명암대비(contrast)를 증가시킨 영상이다. 즉, 학습용 감시영상벡터(IV)는 데이터처리부(200)가 감시영상을 감시영상벡터(IV)로 변환하는 방법과 동일한 방법으로 생성된다. 실측영상벡터(GV)는 학습용 감시영상벡터(IV)에 실측상자(GT: ground-truth box)가 부가된 영상이다. 실측상자(GT)는 학습용 감시영상벡터(IV)에서 실제로 선박이 차지하는 영역을 표현한 것이며, 실측상자(GT)의 좌표(x, y, w, h), 신뢰도 및 분류값을 포함한다. 실측상자(GT)의 분류값은 학습 데이터이기 때문에 알려진 값이며, 실측상자(GT) 내의 객체가 선박의 조업 상태인 경우를 나타내는 제1 클래스(CL1)에 속하는 경우, [CL1=1, CL2=0]이고, 실측상자(GT) 내의 객체가 선박의 비조업 상태인 경우를 나타내는 제2 클래스(CL2)에 속하는 경우, [CL1=0, CL2=1]으로 표현될 수 있다. Referring to FIGS. 3 to 5 , the learning unit 100 prepares learning data in step S110. The learning data includes a monitoring image vector IV for learning and a measured image vector GV corresponding to the monitoring image vector IV for learning. Here, the measured image vector (GV) is a label of the surveillance image vector (IV) for learning. The monitoring image vector (IV) for learning is a monitoring image captured by the imaging device 30 converted into a monitoring image vector (IV). As described above, the method of converting the monitoring image for learning into the monitoring image vector (IV) is an image in which brightness is adjusted and contrast is increased through Equations 1 and 2. That is, the surveillance image vector IV for learning is generated in the same way as the method in which the data processing unit 200 converts the surveillance image into the surveillance image vector IV. The measured image vector (GV) is an image obtained by adding a ground-truth box (GT) to the monitoring image vector (IV) for learning. The measurement box (GT) represents the area actually occupied by the ship in the monitoring image vector (IV) for learning, and includes coordinates (x, y, w, h), reliability, and classification values of the measurement box (GT). The classification value of the measurement box (GT) is a known value because it is learning data, and if the object in the measurement box (GT) belongs to the first class (CL1) representing the case of the ship's operating state, [CL1=1, CL2= 0], and the object in the measurement box GT belongs to the second class CL2 indicating the case in which the ship is not operating, it may be expressed as [CL1 = 0, CL2 = 1].

실측상자(GT)의 좌표는 어느 하나의 셀에 중심 좌표(x, y)를 가진다. 예컨대, 도 4에 도시된 바와 같이, 실측상자(GT)의 중심 좌표(x, y)는 셀 (2, 2)에 그 중심 좌표가 존재한다. 또한, 실측상자(GT)의 좌표는 그 중심 좌표(x, y)를 기준으로 하는 폭(w) 및 높이(h)를 더 가진다. 그리고 실측상자(GT)의 신뢰도는 1(100%)이다. The coordinates of the measurement box GT have center coordinates (x, y) in any one cell. For example, as shown in FIG. 4 , the center coordinates (x, y) of the measurement box GT exist in cells (2, 2). In addition, the coordinates of the measurement box GT further have a width w and a height h based on the center coordinates (x, y). And the reliability of the measurement box (GT) is 1 (100%).

다음으로, 학습부(100)는 S120 단계에서 학습이 완료되지 않은 가중치를 가지는 식별모델(DM)에 학습용 감시영상벡터(IV)를 입력한다. Next, the learning unit 100 inputs the surveillance image vector (IV) for training to the identification model (DM) having weights for which learning has not been completed in step S120.

그러면, 식별모델(DM)은 S130 단계에서 학습용 감시영상벡터(IV)에 대해 복수의 계층 간 학습이 완료되지 않은 가중치를 적용한 복수의 연산을 수행하여 학습용 출력영상벡터(OV)를 도출한다. 이때, 식별모델(DM)은 하나 이상의 영역상자(B)를 도출하고, 도출된 하나 이상의 영역상자(B) 중 실측상자(GT)의 중심좌표가 존재하는 셀에서 신뢰도가 소정 수치 이상인 영역상자(B)를 학습용 영역상자(B)로 선택한다. 그런 다음, 식별모델(DM)은 학습용 영역상자(B)가 적용된 학습용 출력영상벡터(OV)를 생성한다. Then, in step S130, the identification model (DM) derives an output image vector (OV) for learning by performing a plurality of calculations to which a weight for which learning between a plurality of layers has not been completed is applied to the monitoring image vector (IV) for learning. At this time, the identification model (DM) derives one or more region boxes (B), and among the one or more derived region boxes (B), the region box having a reliability of a predetermined value or more in a cell in which the center coordinates of the measurement box (GT) exist ( Select B) as the learning area box (B). Then, the identification model (DM) generates an output image vector (OV) for learning to which the learning region box (B) is applied.

그러면, 학습부(100)는 S140 단계에서 학습용 출력영상벡터(OV)와 실측영상벡터(GV)와의 차이, 보다 구체적으로, 학습용 출력영상벡터(OV)의 학습용 영역상자(B)와 실측영상벡터(GV)의 실측상자(GT)와의 차이를 나타내는 손실을 산출한다. 이때, 학습부(100)는 다음의 수학식 3과 같은 손실함수를 통해 손실을 산출할 수 있다. Then, in step S140, the learning unit 100 determines the difference between the output image vector for learning (OV) and the measured image vector (GV), more specifically, the learning area box (B) and the measured image vector of the output image vector (OV) for learning. Calculate the loss representing the difference between (GV) and the actual measurement box (GT). At this time, the learning unit 100 may calculate the loss through a loss function such as Equation 3 below.

Figure pat00035
Figure pat00035

S는 셀의 수를 나타내며, C는 신뢰도를 나타낸다. B는 한 셀 내의 영역상자(B)의 수를 나타낸다. pi(c)는 i 번째 셀의 객체(obj)가 해당 클래스(c)일 확률, 즉, 분류값을 나타낸다. 본 발명의 실시예에서 2개의 클래스, 제1 클래스(CL1: c=1) 및 제2 클래스(CL2: c=2)가 존재한다. 예컨대, pi(1)는 영역상자(B) 내의 객체가 선박의 조업 상태를 나타내는 제1 클래스에 속할 확률이고, pi(2)는 선박의 비조업상태를 나타내는 제2 클래스에 속할지에 대한 확률을 나타낸다. 여기서, i는 객체가 존재하는 셀을 나타내는 파라미터이고, j는 예측된 영역상자를 나타내는 파라미터이다. 또한, x, y는 영역상자의 중심좌표를 나타내며, w 및 h는 각각 영역상자의 폭과 높이를 나타낸다.

Figure pat00036
는 영역상자의 변수에 대한 값을 더 반영하기 위한 것으로, 영역상자의 좌표(x, y, w, h)에 대한 손실과 다른 손실들과의 균형을 위한 하이퍼파라미터이다.
Figure pat00037
는 영역상자의 변수에 대한 값을 더 반영하고, 물체가 없는 영역에 대한 값을 덜 반영하기 위한 것이다. 즉,
Figure pat00038
는 객체가 있는 영역상자와 객체가 없는 영역상자 간의 균형을 위한 하이퍼파라미터이다. 여기서,
Figure pat00039
=5이고,
Figure pat00040
=0.5가 될 수 있다.
Figure pat00041
는 셀 i에 객체, 예컨대, 선박이 있는 경우 1이고, 없는 경우 0을 나타낸다.
Figure pat00042
는 셀 i에 있는 영역상자 j에 객체, 예컨대, 선박이 있으면 1이고, 없으면 0을 나타낸다.
Figure pat00043
는 셀 i에 있는 영역상자 j에 객체, 예컨대, 선박이 없으면 1이고, 있으면 0을 나타낸다. S represents the number of cells, and C represents reliability. B represents the number of area boxes (B) in one cell. pi(c) represents the probability that the object obj in the ith cell is of the corresponding class c, that is, the classification value. In an embodiment of the present invention, there are two classes, a first class (CL1: c=1) and a second class (CL2: c=2). For example, pi(1) is the probability that the object in the area box B belongs to the first class representing the operating state of the ship, and pi(2) is the probability of belonging to the second class representing the non-operating state of the ship indicates Here, i is a parameter indicating a cell in which an object exists, and j is a parameter indicating a predicted region box. In addition, x and y represent the coordinates of the center of the region box, and w and h represent the width and height of the region box, respectively.
Figure pat00036
is to further reflect the value of the variable of the region box, and is a hyperparameter for balancing the loss with respect to the coordinates (x, y, w, h) of the region box and other losses.
Figure pat00037
is to reflect more the value of the variable of the area box and less reflect the value of the area without the object. in other words,
Figure pat00038
is a hyperparameter for the balance between a region box with an object and a region box without an object. here,
Figure pat00039
=5, and
Figure pat00040
= 0.5.
Figure pat00041
represents 1 when there is an object, eg, a ship, in cell i, and 0 when there is no cell i.
Figure pat00042
represents 1 if there is an object, for example, a ship, in area box j in cell i, and 0 otherwise.
Figure pat00043
represents 1 if there is no object, for example, a ship, in the area box j in cell i, and 0 if there is.

수학식 3의 손실 함수를 살펴보면, 수학식 3의 첫 번째 항(term)은 다음의 수학식 4와 같다. Looking at the loss function of Equation 3, the first term of Equation 3 is equal to Equation 4 below.

Figure pat00044
Figure pat00044

이러한 수학식 4는 학습용 영역상자(B)의 좌표(

Figure pat00045
)와 선박이 차지하는 영역을 나타내는 실측상자(GT)의 좌표(
Figure pat00046
)와의 차이를 나타내는 좌표 손실(coordinate loss)을 산출하기 위한 것이다. Equation 4 is the coordinates of the learning area box (B) (
Figure pat00045
) and the coordinates of the measurement box (GT) representing the area occupied by the ship (
Figure pat00046
) to calculate the coordinate loss representing the difference.

또한, 수학식 3의 두 번째 및 세 번째 항은 다음의 수학식 5와 같다. In addition, the second and third terms of Equation 3 are the same as Equation 5 below.

Figure pat00047
Figure pat00047

수학식 5는 학습용 영역상자(B)가 차지하는 영역과, 실측상자(GT)가 차지하는 영역과의 차이를 나타내는 신뢰도 손실(confidence loss)을 산출하기 위한 것이다. 즉,

Figure pat00048
는 학습용 영역상자(B)의 신뢰도이고,
Figure pat00049
는 실측상자(GT)의 신뢰도이다. Equation 5 is for calculating the confidence loss representing the difference between the area occupied by the learning area box B and the area occupied by the measurement box GT. in other words,
Figure pat00048
Is the reliability of the learning area box (B),
Figure pat00049
Is the reliability of the measurement box (GT).

마지막으로, 수학식 3의 마지막 항은 다음의 수학식 6과 같다. Finally, the last term of Equation 3 is equal to Equation 6 below.

Figure pat00050
Figure pat00050

수학식 6은 영역상자(B) 내의 객체와 실측상자(GT) 내의 객체와의 차이를 나타내는 분류 손실(classification loss)을 산출하기 위한 것이다.

Figure pat00051
는 학습용 영역상자(B)의 분류값이고,
Figure pat00052
는 실측상자(GT)의 분류값이다. Equation 6 is for calculating a classification loss representing a difference between an object in the region box B and an object in the measurement box GT.
Figure pat00051
Is the classification value of the learning area box (B),
Figure pat00052
Is the classification value of the measurement box GT.

전술한 바와 같이, 손실 함수를 통해 좌표 손실, 신뢰도 손실 및 분류 손실을 포함하는 전체 손실이 산출되면, 학습부(100)는 S150 단계에서 좌표 손실, 신뢰도 손실 및 분류 손실을 포함하는 전체 손실이 최소가 되도록 식별모델(DM)의 가중치를 수정하는 최적화를 수행한다. As described above, when the total loss including the coordinate loss, the reliability loss, and the classification loss is calculated through the loss function, the learning unit 100 determines that the total loss including the coordinate loss, the reliability loss, and the classification loss is the minimum in step S150. Optimization is performed to modify the weights of the identification model (DM) so that

한편, 학습부(100)는 전술한 S120 단계 내지 S150 단계는 서로 다른 복수의 학습 데이터를 이용하여 소정의 종료 조건을 만족할 때까지 반복하여 수행한다. 이러한 반복에 따라 식별모델(DM)의 가중치는 반복하여 갱신된다. 그리고 이러한 반복은 전체 손실이 기 설정된 목표치 이하가 될 때까지 이루어질 수 있다. 따라서 일 실시예에 따르면, 학습부(100)는 S160 단계에서 앞서(S140) 산출한 전체 손실이 기 설정된 목표치 이하인지 여부를 판별하고, 전체 손실이 기 설정된 목표치 이하이면, S170 단계에서 식별모델(DM)에 대한 학습을 완료한다. Meanwhile, the learning unit 100 repeatedly performs steps S120 to S150 described above using a plurality of different learning data until a predetermined end condition is satisfied. According to this repetition, the weight of the identification model (DM) is repeatedly updated. In addition, this repetition may be performed until the total loss is less than or equal to a predetermined target value. Therefore, according to one embodiment, the learning unit 100 determines whether the total loss calculated earlier (S140) is less than or equal to a preset target value in step S160, and if the total loss is less than or equal to the preset target value, in step S170, the identification model ( DM) to complete the learning.

한편, S160 단계의 대안적인 실시예에 따르면, 학습부(100)는 좌표 손실 및 신뢰도 손실이 기 설정된 목표치 이하이고, 분류 손실이 수렴하는 경우, S170 단계에서 식별모델(DM)에 대한 학습을 완료한다. Meanwhile, according to an alternative embodiment of step S160, the learning unit 100 completes learning of the identification model (DM) in step S170 when the coordinate loss and the reliability loss are less than or equal to the preset target value and the classification loss converges. do.

다음으로, 전술한 바와 같이, 학습이 완료되어 학습된 가중치를 가지는 식별모델(DM)을 이용하여 불법 어업을 감시하기 위한 방법에 대해서 설명하기로 한다. 도 6은 본 발명의 실시예에 따른 불법 어업을 감시하기 위한 방법을 설명하기 위한 흐름도이다. Next, as described above, a method for monitoring illegal fishing using the identification model (DM) having weights learned after learning has been completed will be described. 6 is a flowchart illustrating a method for monitoring illegal fishing according to an embodiment of the present invention.

도 6을 참조하면, 복수의 영상장치(30)는 항만 주변에 설치된다. 항만 주변의 해상 영역은 복수의 감시영역으로 구분되고, 구분된 복수의 감시영역은 복수의 영상장치(30) 각각에 할당된다. 이에 따라, 복수의 영상장치(30) 각각은 할당된 감시영역을 지속적으로 촬영하여 감시영상을 생성하고, 생성된 감시영상을 감시장치(10)로 송출한다. Referring to FIG. 6 , a plurality of imaging devices 30 are installed around the harbor. The maritime area around the harbor is divided into a plurality of surveillance areas, and the plurality of surveillance areas are assigned to each of the plurality of imaging devices 30 . Accordingly, each of the plurality of imaging devices 30 continuously captures the assigned monitoring area to generate a monitoring image, and transmits the generated monitoring image to the monitoring device 10 .

한편, 선박에 장착된 식별장치(20)는 선박이 운행을 시작하면 지속적으로 인공위성신호(예컨대, GPS 신호) 기반의 위치정보 및 시간정보를 검출하고, 검출된 위치정보 및 시간정보를 식별장치(20)를 식별하기 위한 식별정보와 함께 감시장치(10)로 송출한다. On the other hand, the identification device 20 mounted on the ship continuously detects position information and time information based on artificial satellite signals (eg, GPS signals) when the ship starts operating, and identifies the detected location information and time information as the identification device ( 20) is transmitted to the monitoring device 10 together with the identification information for identifying it.

이에 따라, 데이터처리부(200)는 S210 단계에서 복수의 영상장치(30)로부터 할당된 복수의 감시영역을 촬영한 복수의 감시영상을 지속적으로 수신하고, 선박에 장착된 식별장치(20)로부터 식별장치(20)의 식별정보, 위치정보 및 시간정보를 지속적으로 수신한다. Accordingly, the data processing unit 200 continuously receives a plurality of surveillance images obtained by photographing a plurality of surveillance areas allocated from a plurality of imaging devices 30 in step S210, and identifies them from the identification device 20 mounted on the ship. The identification information, location information and time information of the device 20 are continuously received.

데이터처리부(200)는 S220 단계에서 식별장치(20)의 식별정보가 지시하는 선박의 조업정보를 추출한다. 여기서, 조업정보는 해당 선박의 조업이 허가된 영역을 나타내는 허가 영역 및 해당 허가 영역에서 조업이 허가된 시간을 나타내는 허가 시간을 포함한다. The data processing unit 200 extracts the operation information of the ship indicated by the identification information of the identification device 20 in step S220. Here, the operation information includes a permitted area indicating an area in which operation of the vessel is permitted and a permitted time indicating a time period during which operation is permitted in the permitted area.

이어서, 데이터처리부(200)는 S230 단계에서 식별장치(20)의 위치정보 및 시간정보가 조업정보의 허가 영역 및 허가 시간에 부합하는지 여부를 판단한다. S230 단계의 판단 결과, 식별장치(20)의 위치정보 및 시간정보가 조업정보의 허가 영역 및 허가 시간에 부합하지 않으면, 데이터처리부(200)는 S240 단계로 진행한다. Subsequently, the data processing unit 200 determines whether the location information and time information of the identification device 20 coincide with the permitted area and permitted time of the operation information in step S230. As a result of the determination in step S230, if the location information and time information of the identification device 20 do not match the permitted area and permitted time of the operation information, the data processing unit 200 proceeds to step S240.

이에 따라, 데이터처리부(200)는 S240 단계에서 식별장치(20)가 송출한 위치정보에 해당하는 감시영역이 할당된 영상장치(30)를 선택하고, 선택된 영상장치(30)가 촬영한 감시영상 중 식별장치(20)가 송출한 시간정보에 대응하는 시간에 촬영된 감시영상을 검출한다. Accordingly, the data processing unit 200 selects the imaging device 30 to which the monitoring area corresponding to the location information transmitted by the identification device 20 is allocated in step S240, and the monitoring image captured by the selected imaging device 30. Among them, a monitoring image taken at a time corresponding to the time information transmitted by the identification device 20 is detected.

이어서, 데이터처리부(200)는 S250 단계에서 검출된 감시영상을 정규화하여 감시영상벡터를 생성한다. 즉, 데이터처리부(200)는 검출된 감시영상을 수학식 1 및 수학식 2에 따라 명도(Brightness) 및 명암대비(contrast)를 조절하여 감시영상벡터를 생성한다. 즉, 데이터처리부(200)는 감시영상에서 선박이 부각되도록 감시영상벡터의 픽셀을 변환하여 감시영상벡터를 생성한다. 이를 위하여, 데이터처리부(200)는 먼저, 수학식 1에 따라 감시영상의 각 픽셀값을 조절함으로써 감시영상의 명도(Brightness)를 조절한다. 그런 다음, 데이터처리부(200)는 수학식 2에 따라 명도가 조절된 감시영상의 평균 픽셀값을 기준으로 명도가 조절된 감시영상의 명암대비(constrast)를 증가시켜 감시영상벡터(IV)를 생성한다. Subsequently, the data processing unit 200 normalizes the detected surveillance image in step S250 to generate a surveillance image vector. That is, the data processing unit 200 adjusts brightness and contrast of the detected surveillance image according to Equations 1 and 2 to generate a surveillance image vector. That is, the data processing unit 200 converts the pixels of the surveillance image vector to generate the surveillance image vector so that the ship is highlighted in the surveillance image. To this end, the data processor 200 first adjusts the brightness of the surveillance image by adjusting each pixel value of the surveillance image according to Equation 1. Then, the data processing unit 200 generates a surveillance image vector (IV) by increasing the contrast of the surveillance image whose brightness is adjusted based on the average pixel value of the surveillance image whose brightness is adjusted according to Equation 2. do.

다음으로, 식별부(300)는 S260 단계에서 식별모델(DM)을 이용하여 감시영상벡터(IV)로부터 출력영상벡터(OV)를 도출한다. 즉, 식별부(300)는 학습된 가중치를 가지는 인공신경망인 식별모델을 이용하여 감시영상벡터(IV)로부터 선박를 식별하는 동시에 조업 상태인지 여부를 식별하기 위한 하나 이상의 영역상자(B)를 도출하고, 도출된 영역상자(B)를 포함하는 출력영상벡터(OV)를 도출한다. 이때, 식별부(300)가 감시영상벡터(IV)를 식별모델(DM)에 입력하면, 식별모델(DM)은 감시영상벡터(IV)에 대해 복수의 계층 간 학습이 완료된 가중치가 적용되는 복수의 연산을 수행하여 감시영상벡터(IV)를 복수의 셀로 구분한 후, 하나 이상의 영역상자(B)를 도출한다. 여기서, 각 영역상자(B)는 중심 좌표(x, y) 및 중심 좌표(x, y)를 기준으로 폭과 높이(w, h)를 나타내는 영역상자의 좌표(x, y, w, h), 영역상자(B)가 차지하는 영역이 객체인 선박이 차지하는 영역과 일치하는 비율을 나타내는 신뢰도(confidence) 및 영역상자(B) 내의 객체가 선박의 조업 상태를 나타내는 제1 클래스에 속할 확률 및 선박의 비조업상태를 나타내는 제2 클래스에 속할지에 대한 확률을 포함하는 분류값을 포함한다. 이어서, 식별모델(DM)은 감시영상벡터(IV)에 영역상자(B)를 표현하여 출력영상벡터(OV)를 생성한다. 학습이 완료된 경우, 도출되는 영역상자(B)의 신뢰도는 기준치(예컨대, 0.95(95%), 1(100%) 등) 이상이기 때문에 출력영상벡터(OV)에는 영역상자(B)의 좌표(x, y, w, h) 및 분류값(예컨대, CL1=0.9001, CL2=0.0999)만 표현될 수 있다. Next, the identification unit 300 derives an output image vector (OV) from the monitoring image vector (IV) using the identification model (DM) in step S260. That is, the identification unit 300 identifies the ship from the surveillance image vector IV by using the identification model, which is an artificial neural network having learned weights, and derives one or more area boxes B for identifying whether or not it is in an operational state. , an output image vector (OV) including the derived area box (B) is derived. At this time, when the identification unit 300 inputs the surveillance image vector IV to the identification model DM, the identification model DM applies a plurality of weights to which a plurality of inter-layer learning has been completed for the surveillance image vector IV. After dividing the surveillance image vector (IV) into a plurality of cells by performing the operation of, one or more area boxes (B) are derived. Here, each region box (B) has center coordinates (x, y) and coordinates (x, y, w, h) of the region box representing the width and height (w, h) based on the center coordinates (x, y) , Confidence indicating the rate at which the area occupied by the area box (B) coincides with the area occupied by the ship, which is an object, and the probability that the object in the area box (B) belongs to the first class representing the operating state of the ship and the ship's A classification value including a probability of belonging to the second class representing the non-operational state is included. Next, the identification model (DM) expresses the region box (B) in the surveillance image vector (IV) to generate an output image vector (OV). When learning is completed, since the reliability of the derived region box (B) is greater than or equal to the reference value (eg, 0.95 (95%), 1 (100%), etc.), the output image vector (OV) contains the coordinates of the region box (B) ( Only x, y, w, h) and classification values (eg, CL1 = 0.9001, CL2 = 0.0999) can be expressed.

출력영상벡터(OV)가 도출되면, 정보처리부(400)는 S270 단계에서 출력영상벡터(OV)에 포함된 하나 이상의 영역상자(B) 중 식별장치(20)의 위치정보에 상응하는 영역상자(B)를 검출한다. 즉, 정보처리부(400)는 하나 이상의 영역상자(B)의 위치정보를 검출하고, 하나 이상의 영역상자(B) 중 식별장치(20)의 위치정보와 가장 근접한 위치 정보를 가지는 영역상자(B)를 검출한다. 여기서, 영역상자(B)의 위치정보는 영역상자(B)의 객체(선박)의 위치정보를 의미한다. When the output image vector OV is derived, the information processing unit 400 performs a region box corresponding to the location information of the identification device 20 among one or more region boxes B included in the output image vector OV in step S270 ( B) is detected. That is, the information processing unit 400 detects the location information of one or more area boxes (B), and among the one or more area boxes (B), the area box (B) having the location information closest to the location information of the identification device 20 detect Here, the location information of the area box (B) means the location information of the object (ship) of the area box (B).

이를 위하여, 정보처리부(400)는 영상장치(30)를 기준으로 영역상자(B) 내의 객체, 즉, 선박과의 방향각 및 거리를 산출한다. 특히, 정보처리부(400)는 다음의 수학식 7에 따라 영상장치(30)를 기준으로 하는 영역상자(B) 내의 객체(선박)에 대한 방향각

Figure pat00053
을 산출하고, 다음의 수학식 8에 따라 영상장치(30)로부터 영역상자(B) 내의 객체(선박)와의 거리 d를 산출할 수 있다. To this end, the information processing unit 400 calculates the bearing angle and distance to the object in the area box B, that is, the ship, based on the imaging device 30 . In particular, the information processing unit 400 calculates an azimuth angle for an object (ship) within the area box B based on the imaging device 30 according to Equation 7 below.
Figure pat00053
, and the distance d from the imaging device 30 to the object (ship) in the area box B can be calculated according to Equation 8 below.

Figure pat00054
Figure pat00054

Figure pat00055
Figure pat00055

Figure pat00056
Figure pat00056

수학식 7에서,

Figure pat00057
는 수평 방향의 방향각이고,
Figure pat00058
는 수직 방향의 방향각을 나타낸다. 수학식 8에서, d는 영상장치(30)로부터 영역상자(B) 내의 객체와의 거리를 나타낸다. 수학식 7 및 수학식 8에서, X는 출력영상벡터(OV)의 중심좌표(X, Y) 중 수평 방향의 좌표이고, Y는 출력영상벡터(OV)의 중심좌표(X, Y) 중 수직 방향의 좌표이다. 그리고 x는 영역상자(B)의 중심좌표(x, y) 중 수평 방향의 좌표이고, y는 영역상자(B)의 중심좌표(x, y) 중 수직 방향의 좌표이다. 또한,
Figure pat00059
는 영상장치(30)의 카메라모듈의 초점 거리(focal length)를 나타낸다. In Equation 7,
Figure pat00057
is the orientation angle in the horizontal direction,
Figure pat00058
represents the orientation angle in the vertical direction. In Equation 8, d represents the distance from the imaging device 30 to the object within the area box B. In Equations 7 and 8, X is the coordinate in the horizontal direction among the center coordinates (X, Y) of the output image vector (OV), and Y is the vertical coordinate among the center coordinates (X, Y) of the output image vector (OV). is the coordinate of the direction. Further, x is a coordinate in the horizontal direction among the coordinates (x, y) of the center of the region box B, and y is a coordinate in the vertical direction among the coordinates (x, y) of the center of the region box B. also,
Figure pat00059
represents the focal length of the camera module of the imaging device 30.

전술한 바와 같이, 영상장치(30)를 기준으로 영역상자(B) 내의 객체(선박)에 대한 방향각 및 거리가 산출되면, 정보처리부(400)는 산출된 방향각 및 거리와 영상장치(30)의 위치정보를 이용하여 영역상자(B)의 객체(선박)의 위치정보를 산출할 수 있다. 이에 따라, 정보처리부(400)는 식별장치(20)의 위치정보와 가장 근접한 영역상자(B)의 객체의 위치정보를 가지는 영역상자(B)를 검출할 수 있다. As described above, when the direction angle and distance to the object (ship) in the area box B are calculated based on the imaging device 30, the information processing unit 400 calculates the direction angle and distance and the imaging device 30 ) can be used to calculate the location information of the object (ship) of the area box (B). Accordingly, the information processing unit 400 may detect the area box B having the location information of the identification device 20 and the location information of the object in the area box B that is closest to the location information.

다음으로, 정보처리부(400)는 S280 단계에서 검출된 영역상자(B)의 분류값에 따라 불법조업 여부를 판별한다. 즉, 정보처리부(400)는 영역상자(B)의 분류값을 확인하여 해당 선박이 조업상태인지 혹은 비조업상태인지 여부를 확인한다. 식별모델(DM)이 산출한 분류값은 객체가 선박의 조업상태를 나타내는 제1 클래스일 확률 및 선박의 비조업상태를 나타내는 제2 클래스일 확률을 포함한다. 이에 따라, 정보처리부(400)는 제1 클래스일 확률이 소정 임계치 이상이면서 제2 클래스일 확률 보다 높으면, 영역상자(B)의 선박이 조업상태인 것으로 판단한다. 이러한 분류값을 기초로 하는 판단에 따라 해당 선박이 조업상태인 경우, 정보처리부(400)는 앞서 설명된(S220, S230) 조업정보에 의거하여 허가 영역 및 허가 시간에 부합하지 않는 영역 혹은 시간에 조업 중이기 때문에 불법조업인 것으로 판단할 수 있다. Next, the information processing unit 400 determines whether or not illegal fishing is performed according to the classification value of the area box B detected in step S280. That is, the information processing unit 400 checks the classification value of the area box B to determine whether the corresponding ship is in an operating state or a non-operating state. The classification value calculated by the identification model (DM) includes a probability that the object is in the first class representing the operating state of the ship and a probability of being in the second class representing the non-operational state of the ship. Accordingly, the information processing unit 400 determines that the vessel in the area box B is in operation if the probability of being in the first class is greater than a predetermined threshold and higher than the probability of being in the second class. According to the judgment based on these classification values, when the corresponding vessel is in the operating state, the information processing unit 400 determines the area or time that does not conform to the permitted area and permitted time based on the previously described operation information (S220, S230). Since it is being operated, it can be judged to be illegal fishing.

반면, 정보처리부(400)는 제2 클래스일 확률이 소정 임계치 이상이면서 제1 클래스일 확률 보다 높으면, 해당 영역상자(B)의 선박이 비조업상태인 것으로 판단한다. 이에 따라, 정보처리부(400)는 조업 자체를 하지 않았기 때문에 해당 영역상자(B)의 선박에 대해 불법조업이 아닌 것으로 판단한다. On the other hand, the information processing unit 400 determines that the vessel in the area box B is in a non-operational state if the probability of being in the second class is greater than a predetermined threshold and higher than the probability of being in the first class. Accordingly, the information processing unit 400 determines that the vessel in the area box B is not illegally operated because the operation itself was not performed.

도 7은 본 발명의 실시예에 따른 컴퓨팅 장치를 나타내는 도면이다. 도 7의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 장치, 예컨대, 감시장치(10)가 될 수 있다. 7 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device TN100 of FIG. 7 may be a device described herein, for example, the monitoring device 10 .

도 7의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.In the embodiment of FIG. 7 , the computing device TN100 may include at least one processor TN110, a transceiver TN120, and a memory TN130. In addition, the computing device TN100 may further include a storage device TN140, an input interface device TN150, and an output interface device TN160. Elements included in the computing device TN100 may communicate with each other by being connected by a bus TN170.

프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다. The processor TN110 may execute program commands stored in at least one of the memory TN130 and the storage device TN140. The processor TN110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. Processor TN110 may be configured to implement procedures, functions, methods, and the like described in relation to embodiments of the present invention. The processor TN110 may control each component of the computing device TN100.

메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다.Each of the memory TN130 and the storage device TN140 may store various information related to the operation of the processor TN110. Each of the memory TN130 and the storage device TN140 may include at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory TN130 may include at least one of read only memory (ROM) and random access memory (RAM).

송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다. The transmitting/receiving device TN120 may transmit or receive a wired signal or a wireless signal. The transmitting/receiving device TN120 may perform communication by being connected to a network.

한편, 앞서 설명된 본 발명의 실시예에 따른 방법은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 와이어뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 와이어를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. On the other hand, the method according to the embodiment of the present invention described above can be implemented in the form of a program readable through various computer means and recorded on a computer-readable recording medium. Here, the recording medium may include program commands, data files, data structures, etc. alone or in combination. Program instructions recorded on the recording medium may be those specially designed and configured for the present invention, or those known and usable to those skilled in computer software. For example, recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks ( magneto-optical media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program commands may include high-level language wires that can be executed by a computer using an interpreter, as well as machine language wires such as those produced by a compiler. These hardware devices may be configured to act as one or more software modules to perform the operations of the present invention, and vice versa.

이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 이와 같이, 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 균등론에 따라 다양한 변화와 수정을 가할 수 있음을 이해할 것이다. The present invention has been described above using several preferred examples, but these examples are illustrative and not limiting. As such, those skilled in the art to which the present invention belongs will understand that various changes and modifications can be made according to the doctrine of equivalents without departing from the spirit of the present invention and the scope of rights set forth in the appended claims.

10: 감시장치
20: 식별장치
30: 영상장치
100: 학습부
200: 데이터처리부
300: 식별부
400: 정보처리부
10: monitoring device
20: identification device
30: imaging device
100: learning unit
200: data processing unit
300: identification unit
400: information processing unit

Claims (10)

불법 어업을 감시하기 위한 장치에 있어서,
선박에 장착된 식별장치로부터 상기 식별장치의 식별정보, 위치정보 및 시간정보를 지속적으로 수신하고, 복수의 영상장치로부터 복수의 감시영상을 수신하면, 수신된 복수의 감시영상 중 상기 시간정보 및 상기 위치정보에 대응하는 감시영상을 검출한 후, 검출된 감시영상을 정규화하여 감시영상벡터를 생성하는 데이터처리부;
학습된 가중치를 가지는 인공신경망인 식별모델을 이용하여 감시영상벡터로부터 선박이 차지하는 영역을 특정하면서 선박이 조업상태인지 혹은 비조업상태인지 여부를 나타내는 하나 이상의 영역상자를 도출하고, 도출된 영역상자를 포함하는 출력영상벡터를 도출하는 식별부; 및
출력영상벡터(OV)에 포함된 하나 이상의 영역상자 중 상기 식별장치의 상기 위치정보에 대응하는 영역상자를 검출하고, 검출된 영역상자를 통해 선박이 조업상태인지 혹은 비조업상태인지 여부를 확인하여 선박의 불법조업 여부를 판별하는 정보처리부;
를 포함하는 것을 특징으로 하는
불법 어업을 감시하기 위한 장치.
In the device for monitoring illegal fishing,
When the identification information, location information, and time information of the identification device are continuously received from the identification device mounted on the ship, and a plurality of monitoring images are received from a plurality of imaging devices, the time information and the monitoring images are received from a plurality of monitoring images. After detecting the surveillance image corresponding to the location information, the data processing unit normalizes the detected surveillance image to generate a surveillance image vector;
Using the identification model, which is an artificial neural network with learned weights, the area occupied by the ship is specified from the surveillance image vector, and one or more area boxes indicating whether the vessel is in operation or non-operation are derived, and the derived area box is an identification unit for deriving an output image vector including; and
Among one or more area boxes included in the output image vector (OV), an area box corresponding to the location information of the identification device is detected, and whether the ship is operating or not operating is confirmed through the detected area box. Information processing unit that determines whether the ship is illegally fishing;
characterized in that it includes
A device for monitoring illegal fishing.
제1항에 있어서,
상기 식별모델은
상기 감시영상벡터를 복수의 셀로 구분한 후,
하나 이상의 영역상자를 도출하며,
상기 영역상자는
중심 좌표 및 상기 중심 좌표를 기준으로 폭과 높이를 나타내는 영역상자의 좌표,
상기 영역상자가 차지하는 영역이 상기 선박이 존재하는 영역과 일치하는 비율을 나타내는 신뢰도 및
상기 영역상자 내의 객체가 선박의 조업 상태를 나타내는 제1 클래스에 속할 확률 및 선박의 비조업상태를 나타내는 제2 클래스에 속할 확률을 포함하는 분류값을 포함하는 것을 특징으로 하는
불법 어업을 감시하기 위한 장치.
According to claim 1,
The identification model is
After dividing the surveillance image vector into a plurality of cells,
Derive one or more domain boxes;
The area box is
Coordinates of the center coordinates and the area box representing the width and height based on the center coordinates;
Confidence indicating the rate at which the area occupied by the area box coincides with the area where the vessel exists; and
Characterized in that it includes a classification value including a probability that the object in the area box belongs to a first class representing the operating state of the ship and a probability belonging to a second class representing the non-operating state of the ship
A device for monitoring illegal fishing.
제2항에 있어서,
상기 정보처리부는
상기 하나 이상의 영역상자 내의 선박의 위치정보를 산출하고,
상기 하나 이상의 영역상자 중 상기 식별장치의 위치정보와 가장 근접한 선박의 위치정보를 가지는 영역상자를 검출하는 것을 특징으로 하는
불법 어업을 감시하기 위한 장치.
According to claim 2,
The information processing unit
Calculate location information of ships in the one or more area boxes;
Characterized in that detecting an area box having location information of a ship closest to the location information of the identification device among the one or more area boxes
A device for monitoring illegal fishing.
제3항에 있어서,
상기 정보처리부는
상기 영상장치를 기준으로 상기 영역상자의 선박에 대한 방향각 및 상기 영역상자의 선박과의 거리를 산출하고,
상기 영상장치의 위치정보를 기준으로 상기 방향각 및 상기 거리에 따라 상기 영역상자 내의 선박의 위치정보를 도출하는 것을 특징으로 하는
불법 어업을 감시하기 위한 장치.
According to claim 3,
The information processing unit
Calculate the direction angle of the area box with respect to the ship and the distance of the area box from the ship based on the imaging device;
Characterized in that the location information of the ship in the area box is derived according to the direction angle and the distance based on the location information of the imaging device
A device for monitoring illegal fishing.
제4항에 있어서,
상기 정보처리부는
수학식
Figure pat00060

Figure pat00061

에 따라 상기 방향각을 산출하고,
수학식
Figure pat00062

에 따라 상기 거리를 산출하며,
상기
Figure pat00063
는 수평 방향의 방향각이고,
상기
Figure pat00064
는 수직 방향의 방향각이고,
상기 d는 거리이고,
상기 X는 출력영상벡터의 중심좌표 중 수평 방향의 좌표이고,
상기 Y는 출력영상벡터의 중심좌표 중 수직 방향의 좌표이고,
상기 x는 영역상자의 중심좌표 중 수평 방향의 좌표이고,
상기 y는 영역상자의 중심좌표 중 수직 방향의 좌표이고,
상기
Figure pat00065
는 영상장치의 카메라모듈의 초점 거리인 것을 특징으로 하는
불법 어업을 감시하기 위한 장치.
According to claim 4,
The information processing unit
math formula
Figure pat00060

Figure pat00061

Calculate the direction angle according to,
math formula
Figure pat00062

Calculate the distance according to,
remind
Figure pat00063
is the orientation angle in the horizontal direction,
remind
Figure pat00064
is the orientation angle in the vertical direction,
Where d is the distance,
The X is a coordinate in the horizontal direction among the coordinates of the center of the output image vector,
Y is the coordinate in the vertical direction among the coordinates of the center of the output image vector,
The x is a coordinate in the horizontal direction among the coordinates of the center of the region box,
y is the coordinate in the vertical direction among the coordinates of the center of the region box,
remind
Figure pat00065
Is the focal length of the camera module of the imaging device
A device for monitoring illegal fishing.
제3항에 있어서,
상기 정보처리부는
상기 제1 클래스에 속할 확률이 소정 임계치 이상이면서 상기 제2 클래스에 속할 확률이 보다 높으면, 상기 영역상자의 선박이 조업상태인 것으로 판단하고,
상기 제2 클래스에 속할 확률이 소정 임계치 이상이면서 상기 제1 클래스에 속할 확률이 보다 높으면, 상기 영역상자의 선박이 비조업상태인 것으로 판단하는 것을 특징으로 하는
불법 어업을 감시하기 위한 장치.
According to claim 3,
The information processing unit
If the probability of belonging to the first class is greater than a predetermined threshold and the probability of belonging to the second class is higher, it is determined that the vessel in the area box is in operation;
When the probability of belonging to the second class is greater than a predetermined threshold and the probability of belonging to the first class is higher, it is determined that the vessel in the area box is in a non-operational state.
A device for monitoring illegal fishing.
제1항에 있어서,
상기 데이터처리부는 상기 식별정보가 지시하는 선박에 대해 조업이 허가된 영역을 나타내는 허가 영역 및 해당 허가 영역에서 조업이 허가된 시간을 나타내는 허가 시간을 포함하는 조업정보를 추출하고,
상기 식별장치의 상기 위치정보 및 상기 시간정보가 조업정보의 허가 영역 및 허가 시간에 부합하지 않는 경우,
상기 시간정보 및 상기 위치정보에 대응하는 감시영상을 검출하는 것을 특징으로 하는
불법 어업을 감시하기 위한 장치.
According to claim 1,
The data processing unit extracts operation information including a permitted area indicating an area in which operation is permitted for the vessel indicated by the identification information and a permitted time indicating a permitted time for operation in the permitted area,
If the location information and the time information of the identification device do not conform to the permitted area and permitted time of the operation information,
Characterized in that for detecting a surveillance image corresponding to the time information and the location information
A device for monitoring illegal fishing.
제1항에 있어서,
상기 데이터처리부는
수학식
Figure pat00066

에 따라 상기 감시영상의 명도를 조절하고,
수학식
Figure pat00067

에 따라 상기 감시영상벡터를 생성하며,
상기 u 및 상기 v는 픽셀 좌표이고,
상기
Figure pat00068
는 명도가 조절된 감시영상의 픽셀값이고,
상기
Figure pat00069
는 감시영상의 픽셀값이고,
상기 m은 감시영상의 평균 픽셀값이고,
상기 q는 감시영상의 픽셀값의 표준 편차이고,
상기
Figure pat00070
는 명암대비 지수이고,
상기
Figure pat00071
는 명도가 조절된 감시영상의 평균 픽셀값이고,
상기
Figure pat00072
는 감시영상벡터의 픽셀값인 것을 특징으로 하는
불법 어업을 감시하기 위한 장치.
According to claim 1,
The data processing unit
math formula
Figure pat00066

Adjusting the brightness of the surveillance image according to,
math formula
Figure pat00067

Generating the surveillance image vector according to;
The u and the v are pixel coordinates,
remind
Figure pat00068
is the pixel value of the surveillance image whose brightness is adjusted,
remind
Figure pat00069
is the pixel value of the surveillance image,
The m is the average pixel value of the surveillance image,
q is the standard deviation of pixel values of the surveillance image;
remind
Figure pat00070
is the contrast index,
remind
Figure pat00071
is the average pixel value of the surveillance image whose brightness is adjusted,
remind
Figure pat00072
Is the pixel value of the surveillance image vector
A device for monitoring illegal fishing.
제1항에 있어서,
학습용 감시영상벡터 및 학습용 감시영상벡터에 대응하는 실측영상벡터를 마련하고,
상기 학습용 감시영상벡터를 학습이 완료되지 않은 식별모델에 입력한 후,
식별모델이 상기 학습용 감시영상벡터에 대해 복수의 계층 간 학습이 완료되지 않은 가중치를 적용한 복수의 연산을 수행하여 학습용 출력영상벡터를 포함하는 출력영상벡터를 생성하면,
손실함수를 통해 생성된 출력영상벡터와 상기 실측영상벡터 간의 차이를 나타내는 전체 손실을 산출하고,
전체 손실이 최소가 되도록 손실모델의 가중치를 수정하는 최적화를 수행하는
학습부;
를 더 포함하는 것을 특징으로 하는
불법 어업을 감시하기 위한 장치.
According to claim 1,
Preparing a monitoring image vector for learning and an actual measurement image vector corresponding to the monitoring image vector for learning;
After inputting the surveillance image vector for learning to an identification model in which learning is not completed,
When the identification model generates an output image vector including an output image vector for learning by performing a plurality of operations to which a weight for which learning between a plurality of layers has not been completed is applied to the surveillance image vector for learning,
Calculating a total loss representing a difference between an output image vector generated through a loss function and the measured image vector;
Optimization is performed to modify the weights of the loss model so that the total loss is minimized.
learning department;
characterized in that it further comprises
A device for monitoring illegal fishing.
불법 어업을 감시하기 위한 방법에 있어서,
데이터처리부가 선박에 장착된 식별장치로부터 상기 식별장치의 식별정보, 위치정보 및 시간정보를 지속적으로 수신하는 단계;
상기 데이터처리부가 복수의 영상장치로부터 복수의 감시영상을 수신하면, 수신된 복수의 감시영상 중 상기 시간정보 및 상기 위치정보에 대응하는 감시영상을 검출하는 단계;
상기 데이터처리부가 검출된 감시영상을 정규화하여 감시영상벡터를 생성하는 단계;
식별부가 학습된 가중치를 가지는 인공신경망인 식별모델을 이용하여 감시영상벡터로부터 선박이 차지하는 영역을 특정하면서 선박이 조업상태인지 혹은 비조업상태인지 여부를 나타내는 하나 이상의 영역상자를 도출하고, 도출된 영역상자를 포함하는 출력영상벡터를 도출하는 단계;
정보처리부가 출력영상벡터(OV)에 포함된 하나 이상의 영역상자 중 상기 식별장치의 상기 위치정보에 대응하는 영역상자를 검출하는 단계; 및
상기 정보처리부가 검출된 영역상자를 통해 선박이 조업상태인지 혹은 비조업상태인지 여부를 확인하여 선박의 불법조업 여부를 판별하는 단계;
를 포함하는 것을 특징으로 하는
불법 어업을 감시하기 위한 방법.
In a method for monitoring illegal fishing,
Continuously receiving identification information, location information, and time information of the identification device from the identification device mounted on the ship by the data processing unit;
detecting, when the data processing unit receives a plurality of surveillance images from a plurality of imaging devices, a surveillance image corresponding to the time information and the location information among the plurality of surveillance images received;
generating a surveillance image vector by normalizing the detected surveillance image by the data processing unit;
The identification unit derives one or more area boxes indicating whether the vessel is in operation or non-operation status while specifying the area occupied by the vessel from the surveillance image vector using the identification model, which is an artificial neural network having learned weights, and the derived area deriving an output image vector including a box;
detecting, by an information processing unit, a region box corresponding to the location information of the identification device among one or more region boxes included in an output image vector (OV); and
determining whether the vessel is illegally operated by checking whether the vessel is in an operating state or a non-operating state through the detected region box by the information processing unit;
characterized in that it includes
Methods to monitor illegal fishing.
KR1020220039859A 2021-12-24 2022-03-30 Apparatus for monitoring illegal fishing based on artificial neural network and method therefor KR20230097958A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210187211 2021-12-24
KR20210187211 2021-12-24

Publications (1)

Publication Number Publication Date
KR20230097958A true KR20230097958A (en) 2023-07-03

Family

ID=87157176

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220039859A KR20230097958A (en) 2021-12-24 2022-03-30 Apparatus for monitoring illegal fishing based on artificial neural network and method therefor

Country Status (1)

Country Link
KR (1) KR20230097958A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040075488A (en) 2003-02-21 2004-08-30 (주) 이에스텍 Fishing Identification System

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040075488A (en) 2003-02-21 2004-08-30 (주) 이에스텍 Fishing Identification System

Similar Documents

Publication Publication Date Title
CN109635685B (en) Target object 3D detection method, device, medium and equipment
CN109598241B (en) Satellite image marine ship identification method based on Faster R-CNN
KR20210002104A (en) Target detection and training of target detection networks
CN109460754B (en) A kind of water surface foreign matter detecting method, device, equipment and storage medium
KR102108953B1 (en) Robust camera and lidar sensor fusion method and system
CN112766221B (en) Ship direction and position multitasking-based SAR image ship target detection method
US9904868B2 (en) Visual attention detector and visual attention detection method
CN109145747A (en) A kind of water surface panoramic picture semantic segmentation method
CN110969793B (en) Method, system and storage medium for preventing ship intrusion at periphery of roundabout electronic purse net
US11107231B2 (en) Object detection device, object detection method, and object detection program
KR102155724B1 (en) Method and system for risk detection of objects in ships using deep neural networks
CN112651274B (en) Road obstacle detection device, road obstacle detection method, and recording medium
CN113744262A (en) Target segmentation detection method based on GAN and YOLO-v5
KR102053906B1 (en) Methods and system for real-time supervised learning using geo-spatial information
CN111524113A (en) Lifting chain abnormity identification method, system, equipment and medium
CN112785557A (en) Belt material flow detection method and device and belt material flow detection system
CN114926726A (en) Unmanned ship sensing method based on multitask network and related equipment
KR102311089B1 (en) Apparatus and method for monitoring the ocean using smart marine buoys
CN113065379B (en) Image detection method and device integrating image quality and electronic equipment
KR20230097958A (en) Apparatus for monitoring illegal fishing based on artificial neural network and method therefor
JP7184101B2 (en) Ship behavior analysis device, ship behavior analysis method and program
CN115187936B (en) Monitoring system and method for preventing offshore platform from climbing
KR102315080B1 (en) Apparatus and method for monitoring the ocean using smart marine buoys
KR102583686B1 (en) Method and apparatus for detecting objects
CN115995097A (en) Deep learning-based safety helmet wearing standard judging method