KR20200017601A - Analysis of illegal activities and monitoring based on recognition using unmanned aerial vehicle and artificial intelligence deep running that can monitor illegal activities in the field farm - Google Patents

Analysis of illegal activities and monitoring based on recognition using unmanned aerial vehicle and artificial intelligence deep running that can monitor illegal activities in the field farm Download PDF

Info

Publication number
KR20200017601A
KR20200017601A KR1020180089965A KR20180089965A KR20200017601A KR 20200017601 A KR20200017601 A KR 20200017601A KR 1020180089965 A KR1020180089965 A KR 1020180089965A KR 20180089965 A KR20180089965 A KR 20180089965A KR 20200017601 A KR20200017601 A KR 20200017601A
Authority
KR
South Korea
Prior art keywords
unmanned aerial
aerial vehicle
image
unit
monitoring
Prior art date
Application number
KR1020180089965A
Other languages
Korean (ko)
Other versions
KR102095555B1 (en
Inventor
문영실
최영희
최주형
Original Assignee
문영실
최주형
최영희
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 문영실, 최주형, 최영희 filed Critical 문영실
Priority to KR1020180089965A priority Critical patent/KR102095555B1/en
Publication of KR20200017601A publication Critical patent/KR20200017601A/en
Application granted granted Critical
Publication of KR102095555B1 publication Critical patent/KR102095555B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/02Arrangements or adaptations of signal or lighting devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • B64C2201/12
    • B64C2201/146
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • B64U2101/31UAVs specially adapted for particular uses or applications for imaging, photography or videography for surveillance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

The present invention relates to an unmanned aerial vehicle capable of monitoring illegal practice in a field farm and a method for monitoring illegal practice by using the same, which, when a vessel committing illegal practice exists in a field farm, can monitor and warn the corresponding vessel to make the same stop the illegal practice, and can allow the vessel that committed the illegal practice to perform follow-up measures in various methods. To this end, provided is the method for monitoring illegal practice by using an unmanned aerial vehicle capable of monitoring illegal practice in a field farm, which is characterized by comprising: a step in which after the power of an unmanned aerial vehicle is turned on (S100), and the unmanned aerial vehicle is operated (S110), image information is received through a camera of the unmanned aerial vehicle (S120); a step in which in the case that an event occurs during the operation of the unmanned aerial vehicle, the same is moved to a corresponding location by using GPS information when information of a suspected vessel is received according to the event (S140) before an image is filmed (S150), such that the illegal practice-suspected vessel is filmed when the event is detected through a camera unit (140) of the unmanned aerial vehicle (100) (S150), wherein the filmed image is stored by the unmanned aerial vehicle, and the same is transmitted to the outside through a communication unit of the unmanned aerial vehicle (S160); and a step in which a voice is transmitted through an unmanned aerial vehicle controller (300) which controls the unmanned aerial vehicle, or a warning or a warning sound predetermined in a warning broadcasting unit of the unmanned aerial vehicle is outputted (S170).

Description

필드양식장 불법행위감시가 가능한 무인비행체 및 인공지능 딥러닝을 이용한 불법행위 분석과 인식에 따른 감시 방법{Analysis of illegal activities and monitoring based on recognition using unmanned aerial vehicle and artificial intelligence deep running that can monitor illegal activities in the field farm}Analysis of illegal activities and monitoring based on recognition using unmanned aerial vehicle and artificial intelligence deep running that can monitor illegal activities in the field farm}

본 발명은 필드양식장의 불법행위 감시가 가능한 무인비행체에 관한 것으로, 더욱 상세하게는 필드양식장에 발생하는 불법행위를 감시 및 후속조치를 할 수 있는 필드양식장 불법행위감시가 가능한 필드양식장 불법행위감시가 가능한 무인비행체 및 인공지능 딥러닝을 이용한 불법행위 분석과 인식에 따른 감시 방법에 관한 것이다.The present invention relates to an unmanned aerial vehicle capable of monitoring illegal activities of a field farm, and more particularly, a field farm illegal activity monitor capable of monitoring a field farm illegal activity that can monitor and follow-up illegal activities occurring in a field farm. The present invention relates to a surveillance method based on the analysis and recognition of illegal activities using possible drones and artificial intelligence deep learning.

일반적으로 드론(drone)은 무인비행체의 일종으로 사람이 타지 않고 무선전파에 의해 비행하는 비행체를 말한다.In general, a drone is a type of unmanned aerial vehicle that is flying by radio waves without a person riding.

이러한 드론은 다양한 분야에 사용되고 있으며, 특히 화재진압용, 구조용 및 농약살포용 등으로 사용되고 있다.Such drones are used in various fields, and in particular, fire suppression, rescue and pesticide spraying.

드론과 관련된 종래기술로서는 대한민국 공개특허공보 제10-2017-0025386호에 제안되어 있는 소화탄을 발사할수 있는 화재 진압 드론이 있다.Conventional techniques related to drones include fire suppression drones capable of firing fire extinguishers proposed in Korean Patent Laid-Open Publication No. 10-2017-0025386.

상기 특허는 소화탄을 발사할 수 있는 화재 진압 드론에 있어서, 내장된 열화상 카메라의 열촬영 데이터 및 열감지 센서부의 열감지 데이터를 토대로 화재 발원지를 추적하는 화재 추적부; 복수의 소화탄을 연속적으로 발사할 수 있으며, 상기 화재 추적부의 추적결과를 토대로 소화탄의 발사각도 및 발사거리를 조절하는 투척부; 및 복수의 프로펠러를 포함하며 이동방향을 조절하는 이동부;를 포함하는 화재 진압 드론이 제안되어 있다.The patent has a fire suppression drone capable of firing a fire extinguisher, fire tracking unit for tracking the source of fire based on the thermal imaging data of the thermal imaging camera and the thermal sensor data of the built-in thermal imaging camera; A throwing unit capable of continuously firing a plurality of fire extinguishers, and adjusting a firing angle and a firing distance of the fire extinguisher based on a tracking result of the fire tracking unit; Fire suppression drones have been proposed, including a plurality of propellers and a moving unit for adjusting the movement direction.

또 다른 종래기술로서는 대한민국 공개특허공보 제10-2017-0013100호에 제안되어 있는 해상구조용 드론 및 이를 이용한 해상구조 시스템이 있다.Another conventional technique is a marine rescue drone proposed in the Republic of Korea Patent Publication No. 10-2017-0013100 and a marine rescue system using the same.

특허에는 드론바디; 드론바디의 내부에 수용되며, 드론바디의 위치를 감지하여 드론 위치데이터를 생성하는 드론 GPS모듈; 드론바디의 외부에 비행이 가능하도록 마련되는 비행 프로펠러; 드론바디의 하부에 형성되며, 인명구조 튜브를 탈착 가능하게 파지하는 튜브 홀더; 및 드론바디의 내부에 수용되며, 외부 해상관제센터로부터 조난자 위치데이터가 포함된 긴급출동신호를 수신하는 긴급출동신호 수신부와, 상기 드론 위치데이터와 상기 조난 위치데이터를 비교하여 조난자의 상방으로 이동하도록 상기 비행 프로펠러를 제어하는 비행 제어부와, 이동 후 조난자를 향하여 상기 인명구조 튜브를 투척시키도록 상기 튜브 홀더를 제어하는 투척 제어부를 포함하는 컨트롤러;를 포함하는 해상구조용 드론이 제안되어 있다.Patents include drone bodies; A drone GPS module accommodated inside the drone body and generating drone position data by detecting a position of the drone body; A flight propeller provided to be able to fly outside the drone body; A tube holder formed at a lower portion of the drone body to detachably hold a lifesaving tube; And an emergency call signal receiving unit which is accommodated inside the drone body and receives an emergency call signal including the distress position data from an external maritime control center, and compares the drone position data with the distress position data to move upwards of the distress. A marine rescue drone has been proposed that includes a controller including a flight control unit for controlling the flight propeller and a throwing control unit for controlling the tube holder to throw the lifesaving tube toward the distress after movement.

또 다른 종래기술로서는 대한민국 등록실용신안공보 제20-0479365호에 제안되어 있는 농약 용기가 구비된 드론이 있다.Another conventional technique is a drone with a pesticide container proposed in the Republic of Korea Utility Model Registration No. 20-0479365.

상기 실용신안에는 드론바디; 상기 드론바디의 내부에 수용되며, 상기 드론바디의 위치를 감지하여 드론 위치데이터를 생성하는 드론 GPS모듈; 상기 드론바디의 외부에 비행이 가능하도록 마련되는 비행 프로펠러; 상기 드론바디의 하부에 형성되며, 인명구조 튜브를 탈착 가능하게 파지하는 튜브 홀더; 및 상기 드론바디의 내부에 수용되며, 외부 해상관제센터로부터 조난자 위치데이터가 포함된 긴급출동신호를 수신하는 긴급출동신호 수신부와, 상기 드론 위치데이터와 상기 조난 위치데이터를 비교하여 조난자의 상방으로 이동하도록 상기 비행 프로펠러를 제어하는 비행 제어부와, 이동 후 조난자를 향하여 상기 인명구조 튜브를 투척시키도록 상기 튜브 홀더를 제어하는 투척 제어부를 포함하는 컨트롤러;를 포함하는 해상구조용 드론이 제안되어 있다.The utility model includes a drone body; A drone GPS module accommodated in the drone body and generating drone position data by detecting a position of the drone body; A flight propeller provided to be able to fly outside the drone body; A tube holder formed at a lower portion of the drone body and detachably holding a lifesaving tube; And an emergency call signal receiving unit which is accommodated inside the drone body and receives an emergency call signal including distress position data from an external maritime control center, and compares the drone position data with the distress position data and moves upwards of the distress. A marine rescue drone has been proposed that includes a controller including a flight control unit to control the flight propeller and a throwing control unit to control the tube holder to throw the lifesaving tube toward the distress after movement.

상술한 종래기술들은 모두 드론을 이용해 화재진압, 인명구조 및 농약살포에 사용되는 것으로서 본 발명과 같이 연근해 필드양식장을 관리하기 위한 목적에 사용하기에는 한계가 있을 수밖에 없다는 문제가 있어 이에 대한 개발이 시급하다 할 것이다.The above-mentioned conventional technologies are all used for fire suppression, lifesaving, and pesticide spraying using drones, so there is a problem that there is a limit to use for the purpose of managing the offshore field farms as in the present invention. something to do.

선행문헌 1 : 대한민국 공개특허공보 제10-2017-0025386호 - 소화탄을 발사할 수 있는 화재 진압 드론Prior Document 1: Republic of Korea Patent Publication No. 10-2017-0025386-Fire suppression drones that can fire a fire extinguisher 선행문헌 2 : 대한민국 공개특허공보 제10-2017-0013100호 - 해상구조용 드론 및 이를 이용한 해상구조 시스템Prior Document 2: Korean Unexamined Patent Publication No. 10-2017-0013100-Marine drone for marine rescue and marine rescue system using same

따라서, 본 발명은 상기와 같은 종래 기술의 제반 단점과 문제점을 해결하기 위한 것으로, 필드양식장에서 불법행위를 하는 선박이나 머구리가 있는 경우 해당 선박이나 머구리에 대한 감시 및 경고를 통해 불법행위를 중지하도록 하고, 불법행위를 한 선박이나 머구리에 대하여 인공지능 딥러닝을 이용하여 불법행위에 대한 분석, 인식 및 감시를 수행할 수 있도록 하기 위한 필드양식장 불법행위감시가 가능한 무인비행체 및 인공지능 딥러닝을 이용한 불법행위 분석과 인식에 따른 감시 방법을 제공하는 것을 목적으로 한다.Therefore, the present invention is to solve all the disadvantages and problems of the prior art as described above, if there is a vessel or a mockery illegal in the field farms to stop illegal activities through monitoring and warning of the vessel or mock And unmanned aerial vehicles and artificial intelligence deep learning capable of monitoring illegal activities of field farms to enable analysis, recognition, and monitoring of illegal activities using artificial intelligence deep learning for vessels or migrating torts. It aims to provide a monitoring method based on the analysis and recognition of tort.

상기와 같은 목적을 달성하기 위하여 본 발명 필드양식장 불법행위감시가 가능한 무인비행체는 무인비행체(100)를 제어하기 위한 제어 신호를 무인비행체 조정기(300)로부터 전송받고, 해상 레이더(700)로부터 선박검출 레이더 신호를 전송받으며, 상기 무인비행체(100)에서 촬영한 영상 데이터와 위치정보를 상기 무인비행체 조정기(300)와 필드양식장 관계자나 무인비행체 운용자의 스마트 기기(500)로 전송하는 통신부(110); 상기 무인비행체(100) 이동방향에 따른 풍향과 풍속 및 현재 고도를 센싱하고, 회전운동상태를 측정하고 기울기를 감지하는 센서부(120); 상기 무인비행체(100)의 비행을 위한 비행부(130); 상기 무인비행체(100)가 이동하면서 주변을 촬영하는 카메라부(140); 상기 카메라부(1400에서 촬영된 영상을 저장하는 영상저장부(160); 상기 무인비행체(100)의 현재 위치를 수신하는 GPS 수신부(170); 상기 무인비행체(100) 이동 중 촬영된 영상에서 선박을 식별하는 불법행위 식별부(180); 미리 입력된 경고 방송이나 경고음을 출력하거나, 상기 무인비행체 조정기(300)에서 전송된 음성이나 경고 방송을 출력하는 경고방송부(190); 상기 통신부(110), 센서부(120). 비행부(130), 카메라부(140), 영상저장부(160), GPS 수신부(170), 불법행위 식별부(180), 경고방송부(190)를 포함하는 상기 무인비행체(100)를 제어하여 상기 통신부(110)를 통해 상기 무인비행체 조정기(300)에서 전송된 제어 데이터에 따라 상기 비행부(130)를 제어하고, 상기 카메라부(140)를 통해 촬영된 영상에서 불법행위 식별부(180)가 선박을 식별하면 이를 통신부(110)를 통해 상기 무인비행체 조정기(300), 필드양식장 관계자나 무인비행체 운용자의 스마트 기기(500)로 전송하고, 상기 무인비행체 조정기(300)에서 전송된 데이터에서 음성신호에 대하여 경고 방송부(190)를 통해 음성을 출력하도록 하며, 상기 GPS 수신부(170)로부터 수시된 위치정보와 상기 무인비행체 조정기(300)에서 설정한 운행영역을 계산하여 미리 설정된 범위를 벗어나는 경우 상기 통신부(110)를 통해 상기 무인비행체 조정기(300)로 이를 통지하며, 배터리 잔량을 계산하여 무인비행체(100)의 비행시간과 복귀장소가 지정된 경우 해당 장소까지의 비행 가능 시간을 계산하여 무인비행체 조정기(300)로 전송하도록 제어하는 제어부(220);를 포함하여 구성됨을 특징으로 한다.In order to achieve the above object, the unmanned aerial vehicle capable of monitoring the illegal activity of the field farm in the present invention receives a control signal for controlling the unmanned aerial vehicle 100 from the unmanned aerial vehicle controller 300 and detects the vessel from the marine radar 700. A communication unit 110 receiving a radar signal and transmitting the image data and the position information photographed by the unmanned aerial vehicle 100 to the unmanned aerial vehicle controller 300 and a smart device 500 of an official of a field farm or an unmanned aerial vehicle operator; A sensor unit 120 for sensing a wind direction, a wind speed, and a current altitude according to the moving direction of the unmanned aerial vehicle 100, measuring a rotational movement state, and detecting a tilt; Flight unit 130 for the flight of the unmanned aerial vehicle 100; A camera unit 140 for photographing the surroundings while the unmanned aerial vehicle 100 moves; Image storage unit 160 for storing the image taken by the camera unit 1400; GPS receiver 170 for receiving the current position of the unmanned aerial vehicle 100; Ship from the image taken while moving the unmanned aerial vehicle 100 Illegal activity identification unit 180 for identifying a warning warning output unit for outputting a warning broadcast or warning sound, or the voice or warning broadcast transmitted from the unmanned vehicle adjuster 300, the communication unit 110; The sensor 120 includes the flight unit 130, the camera unit 140, the image storage unit 160, the GPS receiver 170, the illegal activity identification unit 180, and the warning broadcaster 190. By controlling the vehicle 100 to control the flying unit 130 according to the control data transmitted from the unmanned vehicle adjuster 300 through the communication unit 110, from the image taken by the camera unit 140 If the illegal activity identification unit 180 identifies the vessel through the communication unit 110 To transmit to the smart device 500 of the vehicle regulator 300, the field farm official or the unmanned aerial vehicle operator, and outputs the voice through the warning broadcast unit 190 for the voice signal from the data transmitted from the drone regulator 300 And calculates the location information received from the GPS receiver 170 and the driving area set by the unmanned vehicle adjuster 300 to the unmanned vehicle adjuster 300 through the communication unit 110 when it is out of a preset range. Notifying and, if the flight time and returning place of the unmanned aerial vehicle 100 is calculated by calculating the remaining battery, the control unit 220 for controlling the flight time to the corresponding place to transmit to the unmanned aerial vehicle controller 300; Characterized in that configured to include.

또한 상기한 목적을 달성하기 위하여 본 발명 인공지능 딥러닝을 이용한 필드양식장 불법행위 분석과 인식에 따른 감시 방법은 무인비행체 전원이 온되고(S100), 상기 무인비행체가 운행되면서(S110), 무인비행체 카메라를 통해 영상정보를 수신하는 단계(S120); 상기 무인비행체 운행 중 이벤트가 발생하였다면 이벤트에 따라 의심선박 정보를 수신한 경우라면 GPS 정보를 이용하여 해당 위치로 이동시키고(S140), 영상을 촬영하고(S150), 상기 이벤트가 무인비행체(100)의 카메라부(140)를 통해 검출된 경우인 경우에는 불법 행위 의심선박을 촬영하며(S150), 상기 촬영한 영상은 무인비행체에서 저장하고, 이를 상기 무인비행체의 통신부를 통해 외부로 전송하는 단계(S160); 및 상기 무인비행체를 조정하는 무인비행체 조정기(300)를 통해 음성을 전송하거나, 상기 무인비행체의 경고 방송부에 미리 설정된 경고 방송 또는 경고음을 출력하는 단계(S170);를 포함하여 이루어지는 것을 특징으로 한다.In addition, the monitoring method according to the analysis and recognition of illegal activities in the field farm using the artificial intelligence deep learning of the present invention to achieve the above object is the unmanned vehicle is turned on (S100), while the unmanned aerial vehicle is operated (S110), Receiving image information through a camera (S120); If an event occurs during the operation of the unmanned aerial vehicle, if suspicious vessel information is received according to the event, the GPS information is used to move to the corresponding position (S140), and the image is taken (S150), and the event is the unmanned aerial vehicle 100. If detected through the camera unit 140 of the illegal activity suspected ship (S150), the captured image is stored in the unmanned vehicle, and transmitting it to the outside through the communication unit of the unmanned aerial vehicle ( S160); And transmitting a voice through the unmanned vehicle adjuster 300 for adjusting the unmanned vehicle, or outputting a preset warning broadcast or warning sound to the warning broadcaster of the unmanned aerial vehicle (S170).

여기서 상기 무인비행체 운행은 무인비행체 관리자나 필드양식장 관계자에 의한 통상적인 비행이거나, 해경 레이더로부터 필드양식장에 대한 선박정보를 받은 경우이거나, 필드양식장에 설치된 부표로부터 선박 접근 신호를 상기 무인비행체 관리자나 필드양식장 관계자의 스마트기기(스마트폰, 스마트 패드)나 미리 약속된 수신기를 통해 수신한 경우에 수행됨을 특징으로 한다.Here, the operation of the unmanned aerial vehicle is a normal flight by an unmanned aerial vehicle manager or an official of a field farm, or a vessel radar radar receives a ship information on a field farm, or a vessel access signal from a buoy installed in a field farm. It is performed when received through a smart device (smartphone, smart pad) or a pre-scheduled receiver of the farm.

그리고 상기한 목적을 달성하기 위하여 본 발명 필드양식장 불법행위 감시가 가능한 무인비행체의 인공지능 딥러닝을 이용한 불법행위 분석과 인식에 따른 감시 방법은 무인비행체는 선박, 침입자, 해산물 망, 침입자의 잠수 및 부표 위로 손이 올라가는 행위를 포함하는 절도행위와 감시하고자 하는 필드양식장의 경계선 및 경계선 부표의 개수를 데이터화하는 단계(S400); 상기 무인비행체는 상기 필드양식장의 이전 이미지를 이용하여 배경영역 모델을 만들고, 원본 이미지에서 제거하여 객체영역과 배경영역을 분리하는 영상확인 단계(S410); 상기 무인비행체는 실시간으로 선반, 침입자, 부표 모양, 크기, 필드양식장 경계선, 위치, 거리, 기울기, 색깔, 문자, 표지판 중 하나 이상을 검출하는 단계(S420); 상기 무인비행체는 순서대로 들어오는 영상 두개의 프레임으로부터 움직임 영역을 추출하여, 사람을 탐지하는 단계(S430)(S440); 상기 무인비행체는 탐지된 침입자 영역에 대하여 거짓 영상을 제거하는 단계(S450); 상기 무인비행체는 수집된 영상에 대하여 딥러닝을 수행하는 단계(S470); 및 상기 무인비행체는 수집된 영상정보에 대하여 상기 딥러닝을 통해 화면의 변화나 영상의 장면 전환 검출법을 이용하여 이상 행위를 검출하고, 관리자 단말기로 전송하는 단계(S480)(S490);를 포함하여 이루어지는 것을 특징으로 한다.And in order to achieve the above object, the surveillance method according to the analysis and recognition of tort using artificial intelligence deep learning of unmanned aerial vehicle capable of monitoring illegal activity of the field farms of the present invention, the unmanned aerial vehicle is a diving of ships, intruders, seafood networks, intruders and Step (S400) data of the number of theft and buoy buoys of the field farm to be monitored and theft of the hand including the act of raising the hand over the buoy; The unmanned aerial vehicle generates a background area model by using the previous image of the field farm, and removes the image from the original image to identify the object area and the background area (S410); The unmanned aerial vehicle detects at least one of a shelf, an intruder, a buoy shape, a size, a field farm boundary, a position, a distance, a slope, a color, a text, a sign in real time (S420); The unmanned aerial vehicle detects a person by extracting a motion region from two frames of an incoming image in order (S430) (S440); The unmanned aerial vehicle removes a false image of the detected intruder region (S450); The unmanned aerial vehicle performs deep learning on the collected image (S470); And detecting, by the unmanned aerial vehicle, abnormal behavior by using a change of a screen or a scene change detection method of the image through the deep learning, and transmitting the collected image information to an administrator terminal (S480) (S490). Characterized in that made.

본 발명의 실시 예에 따르면 다음과 같은 효과가 있다.According to an embodiment of the present invention has the following effects.

첫째, 필드양식장에서 불법행위를 하는 선박이 있는 경우 해당 선박에 대한 감시 및 경고를 통해 불법행위를 중지하도록 할 수 있다.First, if there is a ship that is illegal in the field farm, the illegal activity can be stopped by monitoring and warning the vessel.

둘째, 불법행위를 한 선박에 대하여 영상 촬영 및 추적을 통해 불법 선박을 검거할 수 있도록 하는 영상을 획득하는 등 다양한 방법으로 후속조치를 수행할 수 있도록 할 수 있다.Second, follow-up measures can be carried out in various ways, such as acquiring an image for arresting an illegal vessel through video recording and tracking of the illegal vessel.

셋째, 인공지능 딥러닝을 이용하여 불법행위에 대하여 분석 및 인식하고, 그에 따른 감시를 수행할 수 있어 필드양식장에 대한 불법 행위의 감시가 용이하다.Third, it is easy to monitor illegal activities on field farms by analyzing and recognizing illegal activities using AI deep learning and monitoring accordingly.

도 1은 본 발명에 따른 필드양식장 불법행위 감시가 가능한 무인비행체를 설명하기 위한 블록 구성도이다.
도 2는 본 발명에 따른 필드양식장 불법행위 감시가 가능한 무인비행체를 조정하는 조정기를 설명하기 위한 블록 구성도이다.
도 3은 본 발명에 따른 필드양식장 불법행위 감시가 가능한 무인비행체를 이용한 불법행위 감시 개념을 설명하기 위한 도면이다.
도 4 및 도 5 본 발명에 따른 필드양식장 불법행위 감시가 가능한 무인비행체를 이용한 불법행위 감시에서 머구리와 잠수부를 나타낸 도면이다.
도 6은 본 발명에 따른 필드양식장 불법행위 감시가 가능한 무인비행체를 이용한 불법행위 감시 방법을 설명하기 위한 흐름도이다.
도 7은 본 발명에 따른 필드양식장 불법행위 감시 시스템을 설명하기 위한 도면이다.
도 8은 본 발명에 따른 필드양식장 불법행위 감시 시스템에서 무인 비행체 운용 방법을 설명하기 위한 흐름도이다.
도 9는 본 발명에 따른 필드양식장 불법행위 감시 시스템의 인공지능 딥러닝을 이용한 불법행위 분석과 인식에 따른 감시 방법을 설명하기 위한 흐름도이다.
1 is a block diagram illustrating an unmanned aerial vehicle capable of monitoring illegal activities of field farms according to the present invention.
2 is a block diagram illustrating a regulator for adjusting an unmanned aerial vehicle capable of monitoring illegal farming activities in a field farm according to the present invention.
3 is a view for explaining the concept of illegal activity monitoring using the unmanned aerial vehicle capable of monitoring the illegal activity of the field farm according to the present invention.
4 and 5 is a view showing a mock and a diver in tort monitoring using an unmanned aerial vehicle capable of monitoring illegal farm activities in the field farm according to the present invention.
6 is a flowchart illustrating a method for monitoring illegal activity using an unmanned aerial vehicle capable of monitoring field farm illegal activity according to the present invention.
7 is a view for explaining a field farm illegal activity monitoring system according to the present invention.
8 is a flowchart illustrating a method for operating an unmanned aerial vehicle in a field farming illegal activity monitoring system according to the present invention.
9 is a flowchart illustrating a monitoring method according to the analysis and recognition of illegal activity using artificial intelligence deep learning of the field farm illegal activity monitoring system according to the present invention.

본 발명의 바람직한 실시 예를 첨부된 도면에 의하여 상세히 설명하면 다음과 같다.When described in detail with reference to the accompanying drawings a preferred embodiment of the present invention.

아울러, 본 발명에서 사용되는 용어는 가능한 한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며 이 경우는 해당되는 발명의 설명부분에서 상세히 그 의미를 기재하였으므로, 단순한 용어의 명칭이 아닌 용어가 가지는 의미로서 본 발명을 파악하여야 함을 밝혀두고자 한다. 또한 실시예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고, 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다. In addition, the terminology used in the present invention was selected as a general term that is widely used at present, but in certain cases, the term is arbitrarily selected by the applicant, and in this case, since the meaning is described in detail in the corresponding part of the present invention, a simple term is used. It is to be understood that the present invention is to be understood as a meaning of terms rather than names. In addition, in describing the embodiments, descriptions of technical contents that are well known in the technical field to which the present invention belongs and are not directly related to the present invention will be omitted. This is to more clearly communicate without obscure the subject matter of the present invention by omitting unnecessary description.

도 1은 본 발명에 따른 필드양식장 불법행위 감시가 가능한 무인비행체를 설명하기 위한 블록 구성도이다.1 is a block diagram illustrating an unmanned aerial vehicle capable of monitoring illegal activities of field farms according to the present invention.

본 발명에 따른 필드양식장 불법행위 감시가 가능한 무인비행체(100)는 도 1에 나타낸 바와 같이, 통신부(110), 센서부(120). 비행부(130), 카메라부(140), 영상변환부(150), 영상저장부(160), GPS 수신부(170), 불법행위 식별부(180), 경고방송부(190), 신호 발신부(200), 운행거리 계산부(210) 및 제어부(220)로 구성된다. Field unmanned aerial vehicle 100 capable of monitoring illegal farming activities according to the present invention, as shown in Figure 1, the communication unit 110, the sensor unit 120. Flight unit 130, camera unit 140, image conversion unit 150, image storage unit 160, GPS receiver 170, illegal activity identification unit 180, warning broadcast unit 190, signal transmission unit ( 200, the travel distance calculator 210 and the controller 220.

통신부(110)는 무인비행체(100)를 제어하기 위한 제어 신호나 음성신호를 무인비행체 조정기(300)로부터 전송받고, 무인비행체(100)에서 촬영한 영상 데이터와 위치정보를 무인비행체 조정기(300)와 필드양식장 관계자나 무인비행체 운용자의 스마트 기기(500)로 전송한다. 또한 필드양식장 부표(600) 중 위치정보를 전송하는 부표(600)로부터 부표(600)의 식별정보나 선박(640) 접근 신호를 수신받고, 해상 레이더(700)로부터 레이더 신호를 받아 이를 무인비행체 조정기(300)로 전송한다. 한편 통신부(110)는 무인비행체의 운행정보를 미리 설정된 간격으로 외부의 감시서버(900)로 무선전송한다. 이러한 스마트 기기(500)나 필드양식장 부표(600) 및 레이더(700)는 후술하는 도 3에 나타나 있다.The communicator 110 receives a control signal or an audio signal for controlling the unmanned aerial vehicle 100 from the unmanned aerial vehicle controller 300, and receives the image data and the position information photographed by the unmanned aerial vehicle 100. The field farm and transmits to the smart device 500 of the official or unmanned aerial vehicle operator. In addition, receiving the identification information of the buoy 600 or the approach signal of the vessel 640 from the buoy 600 to transmit the position information of the field farm buoy 600, and receives the radar signal from the marine radar 700, the drone adjuster Send to 300. Meanwhile, the communication unit 110 wirelessly transmits the driving information of the unmanned aerial vehicle to the external monitoring server 900 at a predetermined interval. The smart device 500 or the field farm buoy 600 and the radar 700 are shown in FIG. 3 to be described later.

센서부(120)는 풍향/풍속/고도 센싱부(121), 지자기센서(122), 가속도센서(123) 및 자이로센서(124) 중 하나 이상으로 구성되며, 풍향/풍속/고도 센싱부(121)는 무인비행체(100) 이동방향에 따른 풍향과 풍속 및 현재 고도를 센싱한다. 이때 풍향/풍속/고도 센싱부(121)는 풍향센서, 풍속센서 및 고도센서로 구성된다. The sensor unit 120 includes one or more of the wind direction / wind speed / altitude sensing unit 121, the geomagnetic sensor 122, the acceleration sensor 123, and the gyro sensor 124, and the wind direction / wind speed / altitude sensing unit 121. ) Senses the wind direction and wind speed and the current altitude according to the moving direction of the unmanned aerial vehicle 100. In this case, the wind direction / wind speed / altitude sensing unit 121 includes a wind direction sensor, a wind speed sensor, and an altitude sensor.

지자기센서(130)와, 가속도센서(140) 및 자이로센서(150)는 무인비행체(100)의 이동방향(진행방향), 회전운동상태를 측정하고 기울기를 감지한다.The geomagnetic sensor 130, the acceleration sensor 140 and the gyro sensor 150 measures the moving direction (progression direction), the rotational movement state of the unmanned aerial vehicle 100 and detects the tilt.

비행부(130)는 회전날개(131), 구동모터(132), 배터리(133) 및 발전부(134) 중 하나 이상으로 구성되는데, 회전날개(131)는 구동모터(132)의 구동에 의해 무인비행체(100)의 비행을 위한 것으로, 복수개로 구성되며, 구동모터(132) 역시 각각의 회전날개(131)를 독립적으로 구동하기 위하여 복수개로 구성될 수 있다. 이때, 본 발명 무인비행체(100)는 예를 들면 드론이라 불리우는 무인 항공기로 구성할 수 있는데, 일반적으로 드론은 카메라, 센서, 통신시스템 등이 탑재돼 있으며 무게와 크기도 다양하다. 드론은 군사용도로 처음 생겨났지만 최근엔 고공 촬영과 배달 등으로 확대됐고, 최근에는 농약을 살포하거나, 공기질을 측정하는 등 다방면에 활용되고 있다. 이러한 드론의 특징 중 하나는 수직 이착륙이 가능하도록 복수개의 회전날개(131)로 구성되고, 이러한 복수개의 회전날개(131) 각각을 구동하기 위한 구동모터(132) 역시 복수개 구성된다.Flight unit 130 is composed of one or more of the rotary blade 131, the drive motor 132, the battery 133 and the power generation unit 134, the rotary blade 131 is driven by the drive motor 132 For the flight of the unmanned aerial vehicle 100, it is composed of a plurality, the drive motor 132 may also be composed of a plurality of to drive each of the rotary blades 131 independently. At this time, the unmanned aerial vehicle 100 of the present invention may be configured by an unmanned aerial vehicle, for example, a drone. In general, a drone is equipped with a camera, a sensor, a communication system, and the like, and also has various weights and sizes. Drones were first introduced for military use, but have recently been extended to high-altitude shooting and delivery. Recently, drones have been used for various purposes, such as spraying pesticides and measuring air quality. One of the characteristics of the drone is composed of a plurality of rotary blades 131 to enable vertical take-off and landing, and a plurality of drive motors 132 for driving each of the plurality of rotary blades 131 is also configured.

배터리(133)는 구동모터(132)의 구동을 위한 전원을 공급한다.The battery 133 supplies power for driving the driving motor 132.

구동엔진(190)은 구동모터(170)를 구동하기 위한 것으로, 연료통(200)으로부터 항공유, 휘발유, 경유 등을 공급받아 구동모터(170)를 구동한다.The driving engine 190 is for driving the driving motor 170, and receives the aviation oil, gasoline, diesel, etc. from the fuel tank 200 to drive the driving motor 170.

발전부(134)는 회전날개(131) 회전시 회전력에 따라 전원을 발전시켜 배터리(133)를 충전한다. The power generation unit 134 charges the battery 133 by generating power according to the rotation force when the rotary blade 131 rotates.

한편 본 발명에서는 배터리를 이용한 방식만을 설명하였지만, 구동모터 대신에 가솔린을 연료로 한 구동엔진을 결합한 하이브리드 방식 또는 구동엔진만을 이용한 방식도 가능하다.Meanwhile, in the present invention, only the method using a battery is described, but a hybrid method or a method using only a driving engine may also be combined with a driving engine using gasoline as a fuel instead of a driving motor.

카메라부(140)는 무인비행체(100)가 이동하면서 주변을 촬영한다. 이러한 카메라부는 줌기능과 틸트 기능 등이 부가될 수 있다.The camera unit 140 photographs the surroundings while the unmanned aerial vehicle 100 moves. The camera unit may be added with a zoom function and a tilt function.

영상변환부(150)는 카메라부(140)에서 촬영된 영상을 압축하여 저장할 수 있도록 영상변환한다.The image converting unit 150 converts the image to compress and store the image photographed by the camera unit 140.

영상저장부(160)는 영상변환부(150)에서 변환된 영상을 저장한다. The image storage unit 160 stores the image converted by the image converter 150.

GPS 수신부(170)는 무인비행체(100)의 현재 위치를 수신한다.The GPS receiver 170 receives a current position of the unmanned aerial vehicle 100.

불법행위 식별부(180)는 무인비행체 이동 중 촬영된 영상에서 머구리(620)나 잠수부(630)와 같은 칩입자와 선박(640)을 식별한다. 이는 예를 들면 영상에서 얼굴을 검출하는 기술과 유사한 방식의 기술을 이용하여 선박(640)이나 머구리(620)나 잠수부(630)를 검출하도록 할 수 있다. 이러한 식별 기술 중 선박을 식별하는 기술은 선박과 선박, 선박과 육상 관제소간에 선박의 위치정보 등을 자동 송수신하여 선박 간의 충돌 방지 및 해난 수색구조 활동을 지원하기 위하여 선박 자동 식별 장치인 AIS(automatic identification system)을 이용할 수 있다. 일반적으로 항만의 관제시스템은 선박 AIS와 연계하여 선박의 통항을 관리한다. 효율적인 통항관리를 할 수 있도록 AIS 연동하는 선박 인식 및 표출 시스템이 요구되고 있다. 본 발명에서는 카메라부(140)로부터 입력된 해상 또는 항만 영상에 대하여 배경추정을 이용한 영상기반의 선박검출과 검출된 해당 선박의 AIS 신호를 연동하여 식별하는 방식을 이용할 수 있다. 이러한 선박(640)이나 머구리(620)나 잠수붕(630)와 같은 칩입자를 검출하는 기술을 뒤에서 보다 상세히 설명하기로 한다.The illegality identification unit 180 identifies the chip particle and the vessel 640 such as the migrating 620 or the diver 630 in the image photographed during the movement of the unmanned aerial vehicle. For example, the vessel 640, the muzzle 620, or the diver 630 may be detected using a technique similar to that of detecting a face in an image. Among these identification technologies, the ship identification technology is an automatic identification device of AIS (automatic identification device) to support collision avoidance and maritime search and rescue activities between ships by automatically transmitting and receiving ship location information between ships and ships, ships and land control stations. system). In general, the port control system manages vessel traffic in connection with the vessel AIS. In order to enable efficient traffic management, ship recognition and display system interworking with AIS is required. In the present invention, an image-based vessel detection using background estimation with respect to a sea or port image input from the camera unit 140 may be used in conjunction with an AIS signal of a corresponding vessel detected. Techniques for detecting chip particles, such as the vessel 640, the migrating 620 or the diving shelf 630 will be described in more detail later.

경고방송부(190)는 미리 입력된 경고 방송이나 경고음등을 출력하거나, 무인비행체 조정기(300)에서 전송된 경고 방송을 출력한다. 물론 경고 방송이외의 음성을 출력할 수 있다.The warning broadcast unit 190 outputs a warning broadcast or warning sound input in advance, or outputs a warning broadcast transmitted from the drone adjuster 300. Of course, it is possible to output a voice other than a warning broadcast.

신호 발신부(200)는 기상이변이나 배터리 부족 또는 비행부(130)의 이상으로 무인비행체가 복귀하지 못하고, 바다나 강 등에 빠진 경우 무인비행체(100)를 용이하게 찾을 수 있도록 신호음이나 경광등(LED)을 발광하도록 한다. 이를 위하여 무인비행체(100)는 물에 뜨는 재질로 만들고, 주요 부품은 방수처리를 한다.The signal transmitter 200 may not be able to return to the drone due to abnormal weather or lack of battery or the flight unit 130, and falls in the sea or river, so that the drone 100 may be easily found. ) To emit light. For this purpose, the unmanned aerial vehicle 100 is made of a material floating in water, and the main parts are waterproofed.

운행거리 계산부(210)는 GPS 수신기(170)를 통해 수신된 위치정보 변화에 따라 실제 무인비행체(100)의 운행 거리를 계산한다.The travel distance calculator 210 calculates the travel distance of the actual unmanned aerial vehicle 100 according to the change of the location information received through the GPS receiver 170.

제어부(220)는 통신부(110), 센서부(120). 비행부(130), 카메라부(140), 영상변환부(150), 영상저장부(160), GPS 수신부(170), 불법행위 식별부(180), 경고방송부(190), 신호 발신부(200) 및 운행거리 계산부(210)를 제어하여 통신부(110)를 통해 무인비행체 조정기(300)에서 전송된 제어 데이터에 따라 비행부(130)를 제어하고, 카메라부(140)에서 촬영된 영상을 영상변환하여 영상 저장부(160)에 저장하며, 카메라부(140)를 통해 촬영된 영상에서 불법행위 식별부(180)가 선박이나 머구기를 식별하면 이를 통신부(110)를 통해 무인비행체 조정기(300), 필드양식장 관계자나 무인비행체 운용자의 스마트 기기(500)로 전송하고, 무인비행체 조정기(300)에서 전송된 데이터에서 음성신호에 대하여 경고 방송부(190)를 통해 음성을 출력하도록 하고, GPS 수신부(170)로부터 수신된 위치정보와 무인비행체 조정기(300)에서 설정한 운행영역을 계산하여 미리 설정된 범위를 벗어나는 경우 통신부(110)를 통해 무인비행체 조정기(300)로 이를 통지하며, 미리 설정된 시간마다 운행거리 계산부(210)에서 계산된 거리를 통신부(110)를 통해 외부의 감시 서버(900)로 전송하도록 제어한다. 또한 배터리 잔량을 계산하여 무인비행체(100)의 비행시간과 복귀장소가 지정된 경우 해당 장소까지의 비행 가능 시간을 계산하여 무인비행체 조정기(300)로 전송한다.The control unit 220 is a communication unit 110, the sensor unit 120. Flight unit 130, camera unit 140, image conversion unit 150, image storage unit 160, GPS receiver 170, illegal activity identification unit 180, warning broadcast unit 190, signal transmission unit ( Control the flight unit 130 according to the control data transmitted from the unmanned vehicle controller 300 through the communication unit 110 by controlling the driving distance calculation unit 210 and the traveling distance calculation unit 210, and the image captured by the camera unit 140. To convert the image to the image storage unit 160, the illegal activity identification unit 180 in the image taken through the camera unit 140 when identifying the vessel or the mugi drone through the communication unit 110 adjuster (300), the field nursery personnel or unmanned aerial vehicle operator to transmit to the smart device 500, and outputs the voice through the warning broadcast unit 190 for the voice signal from the data transmitted from the drone regulator 300, GPS Location information received from the receiving unit 170 and the operating spirit set in the unmanned vehicle adjuster 300 When the station is out of the preset range by calculating the station, it is notified to the drone adjuster 300 through the communication unit 110, and the distance calculated by the travel distance calculation unit 210 at each preset time is externally communicated through the communication unit 110. Control to transmit to the monitoring server 900. In addition, if the flight time and returning place of the unmanned aerial vehicle 100 is calculated by calculating the remaining amount of battery, the flight time to the corresponding place is calculated and transmitted to the drone adjuster 300.

도 2는 본 발명에 따른 필드양식장 불법행위 감시가 가능한 무인비행체를 조정하는 조정기를 설명하기 위한 블록 구성도이다.2 is a block diagram illustrating a regulator for adjusting an unmanned aerial vehicle capable of monitoring illegal farm activities in a field farm according to the present invention.

본 발명에 따른 필드양식장 불법행위 감시가 가능한 무인비행체를 조정하는 조정기(300)는 도 2에 나타낸 바와 같이, 통신부(310). 비행 조작부(320), 디스플레이부(330), 카메라 제어부(340), 음성입력부(350), 알람 발생부(360), 선박 추적 선택부(370), 운행영역 설정부(380) 및 제어부(390)로 구성된다.The adjuster 300 for adjusting the unmanned aerial vehicle capable of monitoring illegal farm activities in the field farm according to the present invention is as shown in FIG. 2, the communication unit 310. Flight operation unit 320, display unit 330, camera control unit 340, voice input unit 350, alarm generating unit 360, ship tracking selector 370, driving area setting unit 380 and control unit 390 It consists of

여기서 통신부(310)는 무인비행체(100)와 통신하여 각종 제어신호를 전송하거나 무인비행체(100)로부터의 영상정보나 필드양식장 부표(600)로부터 부표의 식별정보 및 해상 레이더(700)로부터 레이더 신호를 전송받는다. Here, the communication unit 310 communicates with the unmanned aerial vehicle 100 to transmit various control signals or the image information from the unmanned aerial vehicle 100 or the identification information of the buoy from the field farm form buoy 600 and the radar signal from the marine radar 700. Receive the transmission.

비행 조작부(320)는 무인비행제(100)의 비행부(130)를 제어하기 위한 신호를 발생시킨다.The flight manipulation unit 320 generates a signal for controlling the flight unit 130 of the unmanned aerial vehicle 100.

디스플레이부(330)는 무인비행체(100)의 현재위치를 표시하거나, 무인비행체(100)에서 전송된 영상 데이터를 표시하며, 영상 데이터 중 선박에 대하여는 얼굴검출 시 얼굴만을 별도로 검출하고 별도로 표시하는 방식과 동일한 방식으로 표시할 수 있다. 즉 예를 들어 동시에 여러 대의 선박이 식별되어 전송되면 각각의 선박에 대하여 마스킹하고 선박 영역을 동시에 표시하며, 선박을 객체라 하는 경우 객체를 분리하고 추적하도록 하는 것으로 이는 일반적으로 보안카메라에서 얼굴을 검출하고, 검출된 얼굴을 추적하는 기술을 이용하도록 할 수 있다.The display unit 330 displays the current position of the unmanned aerial vehicle 100 or displays the image data transmitted from the unmanned aerial vehicle 100, and separately detects only the face and separately displays the face of the vessel in the image data. Can be displayed in the same manner as For example, when several ships are identified and transmitted at the same time, masking of each ship and displaying the ship area at the same time, and when a ship is called an object, separates and tracks an object. Generally, a face is detected by a security camera. And a technique for tracking the detected face.

카메라 제어부(340)는 무인비행체(100)의 카메라부(140)를 제어하며, 줌이나 틸트 제어신호를 전송한다.The camera controller 340 controls the camera unit 140 of the unmanned aerial vehicle 100 and transmits a zoom or tilt control signal.

음성입력부(350)는 무인비행체(100)의 경고방송부(190)를 통해 방송하고자 하는 경고 방송 또는 각종 안내 방송을 할 수 있다.The voice input unit 350 may perform a warning broadcast or various guide broadcasts to be broadcast through the warning broadcast unit 190 of the unmanned aerial vehicle 100.

알람발생부(360)는 통신부(310)를 통해 무인비행체(100)에서 통신부(310)를 통해 전송된 신호에서 선박 식별 데이터가 전송되면 이를 알람으로 알리고, 무인비행체(100)의 비행가능 시간이 복귀시간에 근접하거나 배터리 잔량이 미리 설정된 용량(예를 들어 10 ~ 15%) 인 경우 이를 알람음이나 LED 광으로 출력하도록 한다.The alarm generator 360 notifies the alarm when ship identification data is transmitted from a signal transmitted through the communication unit 310 from the unmanned aerial vehicle 100 through the communication unit 310, and the flight time of the unmanned aerial vehicle 100 is increased. If it is close to the return time or if the remaining battery capacity is a preset capacity (e.g. 10 to 15%), output it as an alarm sound or LED light.

선박 추적 선택부(370)는 불법행위 식별부(180)에서 식별된 영상에서 식별된 선박에 대하여 무인비행체 조정기(300)를 통해 추적 선박으로 선택되면 무인비행체(100)가 해당 선박을 자동추적할 수 있도록 하는 것으로, 무인비행체 조정기(300)를 조작하는 조작자가 선택한 선박에 대하여 무인비행체 조작자의 지속적인 조작없이도 자동 추적하도록 하며, 이때, 카메라부(140) 역시 선택된 선박을 계속해서 촬영하도록 설정된다. 또한 머구리나 잠수부와 같은 침입자를 이용한 불법 행위를 한 경우에도 칩입자가 이용한 선박에 대하여 추적하도록 한다.When the vessel tracking selector 370 is selected as a tracking vessel through the drone adjuster 300 for the vessel identified in the image identified by the illegal activity identification unit 180, the drone 100 automatically tracks the vessel. In this way, the operator who operates the drone adjuster 300 automatically tracks the selected vessel without the continuous operation of the drone operator. At this time, the camera unit 140 is also set to continuously photograph the selected vessel. In addition, even if illegal activities involving invaders such as muzzles and divers are to be traced to the vessel used by the chipper.

운행영역 설정부(380)는 무인비행체(100)가 미리 설정된 구간을 운행하도록 설정한다. 이에 대하여는 필드양식장에 설치된 부표 등을 이용하거나, 필드양식장의 좌표를 입력하는 방식을 이요할 수 있다.The driving area setting unit 380 sets the unmanned aerial vehicle 100 to travel in a preset section. In this regard, it is possible to use a buoy installed in the field farm or a method of inputting the coordinates of the field farm.

제어부(390)는 통신부(310). 비행 조작부(320), 디스플레이부(330), 카메라 제어부(340), 음성입력부(350), 알람 발생부(360), 선박추적 선택부(370) 및 운행영역 설정부(380)를 제어한다.The control unit 390 is a communication unit 310. The flight control unit 320, the display unit 330, the camera controller 340, the voice input unit 350, the alarm generator 360, the ship tracking selector 370 and the driving area setting unit 380 are controlled.

도 3은 본 발명에 따른 필드양식장 불법행위 감시가 가능한 무인비행체를 이용한 불법행위 감시 개념을 설명하기 위한 도면이다.3 is a view for explaining the concept of illegal activity monitoring using the unmanned aerial vehicle capable of monitoring the illegal activity of the field farm according to the present invention.

본 발명에 따른 필드양식장 불법행위 감시가 가능한 무인비행체를 이용한 불법행위 감시 개념은 도 3에 나타낸 바와 같은데, 복수의 제1 내지 제n 필드양식장(410, 420, 430)에 대하여 무인비행체(100)가 운행하면서 불법 조업을 하는 선박을 감시할 수 있다. 일반적으로 필드양식장 관계자는 해경 레이터(700)를 통해서 선박의 위치정보를 전달받을 수 있는데, 필드양식장 관계자가 불법 조업 중인 선박을 하루종일 감시하기는 현실적으로 어려울 수 있으므로 해경 레이더로부터 필드양식장 근처를 운행 중인 선박정보가 전송되면 해당 선박이 무인비행체(100)를 이동시켜 선박에 대한 영상촬영과 해당 영상을 스마트 기기(500) 등으로 전송받아 해당 선박의 불법행위 중인지를 판별할 수 있고, 해당 선박의 식별정보(배이름 등)와 영상정보를 통해 즉각적인 후속조치(해경 신고 등)을 수행할 수 있다. 이때, 필드양식장(400)에 부표(600)가 있고, 부표(600)로부터 식별정보를 수신할 수 있는데, 최근의 부표는 선박의 필드양식장 통과 등에 의한 사고 발생 방지를 위한 태양광 자가발전 경광부 및 GPS 센서를 포함하고 있으며, 필드양식장 수온 변화 모니터링을 위한 온도센서, 접근시 감지기능 포함한 레이져 센서를 포함하는 경우도 있다. 그러므로 부표(600)에 머구리(620)나 잠수부(630) 및 선박(640) 접근 시 필드양식장 관계자의 스마트 폰으로 해당 머구리(620)나 잠수부(630) 및 선박(640)의 접근을 알리고, 그에 따라 무인비행체(100)을 해당 부표 위치로 이동시켜 촬영하도록 하는 것도 가능하다. 이러한 부표는 부표고정장치(610)를 통해 고정되거나 가두리 장치에 직접 설치될 수 있다.The illegal activity monitoring concept using the unmanned aerial vehicle capable of monitoring the illegal farming of field farms according to the present invention is as shown in FIG. 3. The unmanned aerial vehicle 100 of the plurality of first to nth field farms 410, 420, and 430 is used. It is possible to monitor vessels operating illegally while they are operating. In general, field farm personnel can receive the position information of the ship through the maritime radar 700, it may be difficult for the field farm officials to monitor the vessel in operation illegally throughout the day, so it is operating near the field farm from the maritime radar When the vessel information is transmitted, the vessel can move the unmanned aerial vehicle 100 to receive an image of the vessel and receive the image to the smart device 500 to determine whether the vessel is in illegal activity, and identify the vessel. You can perform immediate follow-up actions (eg maritime report) through the information (e.g. ship name) and video information. At this time, there is a buoy 600 in the field farm 400, and can receive the identification information from the buoy 600, the recent buoy solar self-powered mining unit for preventing accidents caused by passing through the field farm of the ship And a GPS sensor, and in some cases, a temperature sensor for monitoring water temperature change in a field farm, and a laser sensor including an approaching detection function. Therefore, when the Mug 620 or the diver 630 and the vessel 640 approaches the buoy 600, the smartphone of the field nursery notifies the murco 620 or the diver 630 and the vessel 640, Accordingly, it is also possible to move the unmanned aerial vehicle 100 to the corresponding buoy position to photograph. These buoys may be fixed through the buoy fixing device 610 or installed directly on the cage device.

도 4 및 도 5 본 발명에 따른 필드양식장 불법행위 감시가 가능한 무인비행체를 이용한 불법행위 감시에서 머구리와 잠수부를 나타낸 도면이다.4 and 5 is a view showing a mock and a diver in tort monitoring using an unmanned aerial vehicle capable of monitoring the illegal farming of field farms according to the present invention.

본 발명에 따른 필드양식장 불법행위 감시가 가능한 무인비행체를 이용한 불법행위 감시에서 머구리는 도 4에 나타낸 바와 같은데 머구리(620)란 바다물속에 들어가서 고기를 잡거나 해산물을 채취하는 사람들을 남해안이나 동해안, 섬 등에서 부르는 용어이기도 하다. 머구리는 도 4에 나타낸 바와 같이 우주복 같은 잠수복을 입고 수면위와 연결된 호스를 통해 공기를 공급받는다. 마치 우주인이 유영하는 모습과 같이 물속에서도 이동을 하며 작업을 한다. 해안 도로와 방파제 공사, 수몰된 난파선이나 시신의 인양까지 매우 다양하고 중요한 역할을 맡고 있다. 장시간 물속에서 작업을 할 수 있을 뿐만 아니라, 호스를 통해서 대화도 가능하다.In the illegal activity monitoring using the unmanned aerial vehicle capable of monitoring the illegal activity of the field farm according to the present invention, the mercury is shown in Fig. It is also a term used by the back. The mercury wears a wetsuit, such as a spacesuit, as shown in FIG. 4, and is supplied with air through a hose connected to the surface of the water. They move and work in the water as if the astronauts were swimming. They play a wide variety of important roles, from coastal roads and breakwater construction, to submerged shipwrecks and to the salvage of bodies. Not only can you work in the water for a long time, but you can also talk through the hose.

일반적으로 작업 용도에 따라 천해용 잠수기, 헬멧식 잠수기, 순환 자급식 수중 호흡기, 스쿠버 잠수기 등이 이용되고 있지만 아직까지는 도 4에서와 같은 헬멧식 잠수기가 가장 많이 사용되고 있다. In general, shallow water submersible, helmet-type submersible, circulating self-contained aquatic respirator, scuba diver, etc. are used according to the work purpose, but the helmet-type submersible as shown in FIG.

그러나 최근에는 도 5에 나타낸 바와 같이 산소탱크를 이용한 잠수부(630)를 이용하는 경우도 있는데, 이러한 도 4 및 도 5에 나타낸 머구리나 잠수부 장비를 이용하여 채취한 해산물이나 수산물을 통발(621)등에 넣어 수상으로 올린다.Recently, however, there is a case where a diver 630 using an oxygen tank is used as shown in FIG. 5, and the seafood or aquatic products collected by using the mercury or the diver equipment shown in FIGS. 4 and 5 are placed in the trap 621. Post to the award.

본 발명에서는 이러한 머구리(620)와 잠수부(630)를 선박(640)을 이용하여 필드 양식장에 접근하여 머구리(620)와 잠수부(630)를 내려 놓고 이동 후 미리 약속된 시간에 다시 접근하여 머구리(620)와 잠수부(630)들을 다시 선박(640)에 싣고 이동하는 불법행위 역시 단속가능하다.In the present invention, the mock 620 and the diver 630 by using the vessel 640 to approach the field farm, the mock 620 and the diver 630 is put down to move back to the pre-scheduled time after moving the mock ( The illegal act of loading the 620 and the divers 630 back to the ship 640 may also be controlled.

도 6은 본 발명에 따른 필드양식장 불법행위 감시가 가능한 무인비행체를 이용한 불법행위 감시 방법을 설명하기 위한 흐름도이다.6 is a flowchart illustrating a method for monitoring illegal activity using an unmanned aerial vehicle capable of monitoring field farm illegal activity according to the present invention.

본 발명에 따른 필드양식장 불법행위 감시가 가능한 무인비행체를 이용한 불법행위 감시 방법은 도 6에 나타낸 바와 같이, 무인비행체 전원이 온되고(S100), 무인비행체가 운행되면서(S110), 무인비행체 카메라를 통해 영상정보를 수신한다(S120). 이때, 무인비행체 운행은 무인비행체 관리자나 필드양식장 관계자에 의한 통상적인 비행일 수도 있고, 해경 레이더로부터 필드양식장에 대한 선박정보를 받은 경우일수도 있으며, 필드양식장에 설치된 부표로부터 선박 접근 신호나 머구리, 잠수부와 같은 침입자를 스마트기기(스마트폰, 스마트 패드)나 미리 약속된 수신기를 통해 수신한 경우일 수 있다.According to the present invention, the illegal activity monitoring method using the unmanned aerial vehicle capable of monitoring illegal farm activities in the field farm is turned on (S100), while the unmanned aerial vehicle is operated (S110), while the unmanned aerial vehicle is operated. Receive image information through (S120). At this time, the operation of the unmanned aerial vehicle may be a normal flight by an unmanned aerial vehicle manager or a field farm official, or may have received vessel information on a field farm from a maritime radar, and a vessel approach signal or a mercury, from a buoy installed on the field farm, This may be the case when an intruder such as a diver is received through a smart device (smartphone, smart pad) or a predetermined receiver.

이러한 무인비행체 운행 중 이벤트가 발생하였다면 이벤트에 따라 의심선박이나 침입자정보를 수신한 경우라면 GPS 정보를 이용하여 해당 위치로 이동시키고(S140), 영상을 촬영한다(S150).If an event occurs during the operation of the unmanned aerial vehicle, if suspicious vessel or intruder information is received according to the event, it moves to a corresponding position using GPS information (S140) and photographs an image (S150).

한편 이벤트가 무인비행체(100)의 카메라부(140)를 통해 검출된 경우인 경우에는 불법 행위 의심 선박이나 침입자를 촬영한다(S150). 이때, 줌기능이나 틸트를 통해 촬영할 수도 있고, 정지영상이나 동영상으로 촬영할 수 있다.On the other hand, if the event is detected through the camera unit 140 of the unmanned aerial vehicle 100 photographs a suspicious vessel or intruder (S150). In this case, the camera may shoot through the zoom function or the tilt, or may shoot a still image or a moving image.

그리고 촬영한 영상은 무인비행체(100)에서 변환 및 저장하고, 이를 통신부(110)를 통해 외부로 전송한다(S160). 그에 따라 무인비행체 조정기(300)나 스마트 기기(500)에서 해당 영상을 표시하고 저장할 수 있다. 이때, 미리 약속된 선박이거나, 지나가는 선박 등 불법 조업이 의심되지 않는다면 무인비행체 운행을 종료시킬 수도 있다.The captured image is converted and stored in the unmanned aerial vehicle 100 and transmitted to the outside through the communication unit 110 (S160). Accordingly, the drone adjuster 300 or the smart device 500 may display and store the corresponding image. In this case, if the illegal operation is not suspected, such as a ship or a passing ship in advance, the operation of the unmanned aerial vehicle may be terminated.

그러나 불법행위 의심선박이거나, 머구리, 잠수부라면 무인비행체 조정기(300)를 통해 음성을 전송하거나, 미리 설정된 경고 방송 또는 경고음 등을 출력할 수 있다(S170).However, if the vessel is suspected of illegal activity, mercury, divers may transmit a voice through the drone regulator 300, or may output a preset warning broadcast or warning sound (S170).

또한 무인비행체 조정기(300)의 선박 추적 선택부(370)를 통해 불법행위 선박을 추적명령을 전송한다(S180).In addition, the ship tracking selection unit 370 of the drone adjuster 300 transmits a tracking command for the illegal ship (S180).

그에 따라 자동으로 추적하면서 해당 선박을 촬영한다. 물론 수동으로 조정기를 통해 추적하면서 촬영하도록 할 수 있다(S190).It automatically tracks and photographs the vessel. Of course, it is possible to manually shoot while tracking through the adjuster (S190).

한편 배터리 잔량이 복귀시점이라면 무인비행체 조정기(300)에서 알람이 발생되고, 그에 따라 촬영을 중지하고, 복귀장소로 복귀한다(S200).On the other hand, if the remaining battery time is the return point, an alarm is generated in the drone adjuster 300, and accordingly stops shooting, and returns to the return location (S200).

한편 복귀에 성공하였는가를 판단하여(S210), 기상이변이나 배터리 부족 등의 이유로 복귀에 실패하였다면 무인비행체(100)는 신호발신부(200)를 통해 구조신호를 발신시킨다(S210).On the other hand, it is determined whether the return is successful (S210), and if the return fails due to abnormal weather or lack of battery, the unmanned aerial vehicle 100 transmits a rescue signal through the signal transmitter 200 (S210).

도 7은 본 발명에 따른 필드양식장 불법행위 감시 시스템을 설명하기 위한 도면이다.7 is a view for explaining a field farm illegal activity monitoring system according to the present invention.

본 발명에 따른 필드양식장 불법행위 감시 시스템은 도 7에 나타낸 바와 같이, 다수의 제 1 내지 제 n필드양식장(410, 420, 430)에 대하여 다수의 무인비행체(100)와, 이를 조정하기 위한 무인비행체 조정기(300), 관리자나 관계가 스마트 기기(500) 및 다수의 제 1 내지 제 n필드양식장(410, 420, 430) 각각의 설치 영역을 알려주기 위한 다수의 부표(600)가 각각 복수개 구성되며, 이러한 다수의 필드양식장에 대한 다수의 무인비행체(100)와 다수의 관계자 각각의 스마트 기기(500)에 효율적으로 감시 정보를 제공하기 위한 감시서버(900) 및 금융사 서버(1000)를 포함하여 구성된다.As shown in FIG. 7, the field farm illegal activity monitoring system according to the present invention includes a plurality of unmanned aerial vehicles 100 with respect to a plurality of first to n-th field farms 410, 420, and 430, and an unmanned aerial vehicle for controlling them. A plurality of buoys 600 for informing the installation area of each of the vehicle adjuster 300, the manager or the relationship of the smart device 500, and the plurality of first to nth field farms 410, 420, and 430, respectively Including a plurality of unmanned aerial vehicle 100 for a plurality of field farms, and a monitoring server 900 and a financial company server 1000 for efficiently providing the monitoring information to each smart device 500 of the plurality of parties It is composed.

여기서 감시 서버(900)는 통신부(910), 데이터베이스(920), 운행정보 저장부(930), 관리정보 저장부(940), 무인비행체 관리요청부(950), 비용계산 및 청구부(960) 및 제어부(970)로 구성된다.The monitoring server 900 is a communication unit 910, database 920, operation information storage unit 930, management information storage unit 940, unmanned vehicle management request unit 950, cost calculation and billing unit 960 And a control unit 970.

한편 감시서버(900)의 통신부(910)는 통신망(800)을 통해 무인비행체(100)로부터 무인비행체 운행거리 정보를 수신받고, 무인비행체(100)의 주기적인 관리를 위하여 무인비행체 관리자나 관계자에게 필요한 정보(정기점검, 비용청구서 등)을 전송한다.On the other hand, the communication unit 910 of the monitoring server 900 receives the unmanned aerial vehicle distance information from the unmanned aerial vehicle 100 through the communication network 800, to the unmanned aerial vehicle manager or related personnel for the periodic management of the unmanned aerial vehicle 100 Send necessary information (regular checks, billing, etc.).

데이터베이스(920)는 감시하고자 하는 필드양식장별 부표정보(GPS 위치정보), 무인비행체 기본정보(모델명, 모델에 따른 부품정보 및 성능정보 등), 무인비행체 계약정보(관리비용(주기적 성능점검 AS 포함), 임대+관리비용 등), 무인비행체 사용자 정보(성함, 전화번호, 휴대폰 번호, 이메일 주소, 스마트 기기 식별정보, 구매, 임대 중인 무인비행체 정보 등), 무인비행체 담당자 정보(성함, 전화번호, 휴대폰 번호, 담당 관리 중인 무인비행체 정보 등) 등이 저장된다. The database 920 includes buoy information (GPS location information) for each field farm to be monitored, unmanned vehicle basic information (model name, parts information and performance information, etc.) and unmanned vehicle contract information (management cost (including periodic performance check AS). ), Rental + administrative costs, etc.), unmanned aerial vehicle user information (name, phone number, mobile phone number, email address, smart device identification, purchase, unmanned aerial vehicle information, etc.), unmanned aerial vehicle contact information (name, telephone number, Mobile phone number, drone information under charge, etc.) are stored.

운행정보 저장부(930)는 무인비행체(100)가 실제 운행한 거리 정보가 무인비행체(100)로부터 설정된 주기로 전송되면 해당 정보를 저장한다.The driving information storage unit 930 stores the information when the distance information actually traveled by the unmanned aerial vehicle 100 is transmitted from the unmanned aerial vehicle 100 at a set period.

관리정보 저장부(940)는 무인비행체(100)별 주기적 점검정보, 부품 수리 또는 교환 정보 등이 저장된다.The management information storage unit 940 stores periodic inspection information for each unmanned aerial vehicle 100, parts repair or replacement information, and the like.

무인비행체 관리요청부(950)는 무인비행체 이용자와 설정된 계약에 따른 주기적 점검이나 분실 시 구조요청을 무인비행체 담당자의 스마트 기기로 요청한다.The unmanned aerial vehicle management request unit 950 requests a request for rescue from the unmanned aerial vehicle personnel upon periodic check or loss according to a contract set with the unmanned aerial vehicle user.

비용계산 및 청구부(960)는 무인비행체(100)별 관리비용이나 임대비용, 부품 수리나 교환 비용 및 운행거리에 따른 비용 및 무인비행체 분실에 따른 보험료 등을 계산한다.The cost calculation and billing unit 960 calculates management costs or rental costs for the unmanned aerial vehicle 100, parts repair or replacement costs, costs according to the driving distance, and insurance premiums for loss of the unmanned aerial vehicle.

이는 필드양식장 운영자가 무인비행체를 운영하고자 하는 경우 무인비행체의 성능에 따라 초기 구매 비용이 부담되는 경우 유용하게 이용될 수 있고, 주기적인 점검을 포함하는 AS문제를 해결할 수 있으므로 이용자 입장에서는 부담없이 무인비행체를 이용할 수 있으며, 필드양식장에서 이용함에 따라 무인비행체 분실 시 보험처리를 하는 경우 이용자나 관리자 모두 부담없이 이용할 수 있다.This can be useful when the field farm operator wants to operate an unmanned aerial vehicle, if the initial purchase cost is burdened by the performance of the unmanned aerial vehicle, and can solve the AS problem including periodic inspection. The aircraft can be used, and as it is used in the field farm, both the user and the manager can feel free to use insurance when the drone is lost.

제어부(970)는 통신부(910), 데이터베이스(920), 운행정보 저장부(930), 관리정보 저장부(940), 무인비행체 관리요청부(950) 및 비용계산 및 청구부(960)를 제어한다.The controller 970 controls the communication unit 910, the database 920, the operation information storage unit 930, the management information storage unit 940, the unmanned aerial vehicle management request unit 950, and the cost calculation and billing unit 960. do.

한편 금융사 서버(1000)는 은행, 카드사 또는 페이팔 등일 수 있다.Meanwhile, the financial company server 1000 may be a bank, a card company, or PayPal.

도 8은 본 발명에 따른 필드양식장 불법행위 감시 시스템에서 무인비행체 운용 방법을 설명하기 위한 흐름도이다.8 is a flowchart illustrating a method for operating the unmanned aerial vehicle in the field farming illegal activity monitoring system according to the present invention.

본 발명에 따른 필드양식장 불법행위 감시 시스템에서 무인비행체 운용 방법은 도 8에 나타낸 바와 같이, 감시 서버(900)에 필드양식장을 등록한다(S300). 이때, 필드양식장별 GPS 위치정보와, 필드양식장 관리자 정보(이름, 전화번호, 휴대폰 번호 등)를 함께 등록한다. In the method for operating an unmanned aerial vehicle in the field farm illegal activity monitoring system according to the present invention, as shown in FIG. 8, the field farm is registered in the monitoring server 900 (S300). At this time, the GPS location information for each field farm and the field farm manager information (name, phone number, mobile number, etc.) are registered together.

이어 필드양식장별 복수의 식별장치 즉 부표정보와 필드양식장별 불법행위를 감시하는 무인비행체를 등록한다(S310). 이때, 해당 무인비행체에 대한 관리자 정보도 함께 등록한다. Subsequently, a plurality of identification devices for each field farm, that is, buoy information and an unmanned aerial vehicle for monitoring illegal activities for each field farm, are registered (S310). At this time, the manager information on the unmanned aerial vehicle is also registered.

이어 이벤트가 발생되고, 이벤트가 정기점검이라면 무인비행체 담당자 단말기(휴대폰 등)로 정기점검을 요청하는 메시지를 전송한다(S330). 그리고 정기점검 결과에 따라 수리, 부품 교체 등이 수행되었으면 해당 정보를 감시서버(900)에서 갱신한다.Subsequently, an event is generated, and if the event is a periodic check, a message requesting a periodic check is sent to an unmanned aerial vehicle terminal (mobile phone, etc.) (S330). And if the repair, replacement parts, etc. were performed according to the result of the regular inspection, the corresponding information is updated in the monitoring server 900.

한편 이벤트가 무인비행체로부터의 운행관련 데이터라면 운행거리를 누적한다(S340). 이러한 운행거리 누적은 기본요금과 함께 운행거리별 요금 청구에 이용됨은 물론 무인비행체 부품의 AS 등과도 관련된다(S350). 다시 말하면 많이 운행한 경우에는 정비 시기를 보다 앞당길 수 있고, 반대의 경우에는 정비 시기를 늦출수도 있다.On the other hand, if the event is driving-related data from the unmanned aerial vehicle, the driving distance is accumulated (S340). This distance accumulation is not only used for billing by distance with the base rate, but also related to AS of unmanned aerial vehicle parts (S350). In other words, in case of a lot of operation, the maintenance time can be advanced earlier. In the opposite case, the maintenance time can be delayed.

한편 이벤트가 무인비행체 분실이라면 무인비행체 담당자 단말기로 점검 및 수색을 요청한다(S360). 이러한 분실의 경우에는 감시서버(900)에서 수색비용이나 분실시 보험료 등을 책정하게 된다.On the other hand, if the event is missing the unmanned aerial vehicle requests a check and search to the unmanned aerial vehicle terminal (S360). In the case of such a loss, the monitoring server 900 is to determine the search cost or insurance premium when lost.

도 9는 본 발명에 따른 필드양식장 불법행위 감시 시스템의 인공지능 딥러닝을 이용한 불법행위 분석과 인식에 따른 감시 방법을 설명하기 위한 흐름도이다.9 is a flowchart illustrating a monitoring method according to the analysis and recognition of illegal activity using artificial intelligence deep learning of the field farm illegal activity monitoring system according to the present invention.

본 발명에 따른 필드양식장 불법행위 감시 시스템의 인공지능 딥러닝을 이용한 불법행위 분석과 인식에 따른 감시 방법은 기본적으로 선박, 침입자(머구리, 잠수사) 이미지, 해산물 망 이미지, 부표 이미지, 침입자의 잠수 및 부표로 손이 올라가는 행위를 포함하는 다양한 절도 행위를 미리 불법행위 식별부(180)에 데이터화한다(S400). 이러한 데이터화는 현장경험이나 실험에 따라 지속적으로 업데이트될 수 있다. 또한 무인비행체는 자신이 감시하는 필드양식장 경계 및 경계의 부표개수를 미리 데이터화한다.The monitoring method according to the analysis and recognition of tort using artificial intelligence deep learning of the field farm tort monitoring system according to the present invention is basically a ship, an intruder (Murray, diver) image, a seafood net image, a buoy image, an intruder's diving and Various theft activities including the act of raising the hand to a buoy are data-formed in advance in the illegal activity identification unit 180 (S400). Such data can be continuously updated according to field experience or experiment. In addition, the unmanned aerial vehicle dataifies the field farm boundary and the number of buoys at the boundary in advance.

이러한 본 발명에서의 필드양식장내 침입 영상 구분 방법은 다음과 같은 기술을 응용할 수 있다.The method for distinguishing invasive images in the field farm according to the present invention can be applied to the following techniques.

제어부(220)는 영상 확인(후보 영역 분할) 필드양식장 경계 구역내 이전이미지를 이용하여 배경영역 모델을 만들고 원본 이미지에서 제거하여 객체영역(선박, 침입자(머구리, 잠수부), 부표등)과 배경영역 분리한다(S410).The control unit 220 creates a background area model by using the previous image in the boundary area of the image confirmation (candidate area) field farm and removes it from the original image, thereby removing the object area (ship, intruder (mug, diver), buoy, etc.) and the background area. Separate (S410).

제어부(220)는 실시간으로 선박, 침입자(머구리), 부표의 모양, 크기와 경계선의 규칙 또는 불규칙 여부 확인, 위치, 거리, 기울기, 색깔, 문자, 표지판 등으로 각각의 행위를 검출한다(S420).The control unit 220 detects each action in real time by checking the shape or size of the ship, the intruder (murco), the buoy, the rules and irregularities of the boundary line, location, distance, slope, color, text, signs, etc. (S420) .

침입자(머구리)영역 탐지는 순서대로 들어오는 영상 두 개의 프레임으로부터 제어부(220)는 움직임 영역을 먼저 추출한다(S430).In the detection of the intruder (murco) region, the controller 220 first extracts a movement region from two frames of an incoming image (S430).

침입자(머구리) 영역 탐지에서 사람의 경우는 필드양식장내외에 움직임 윈도우 탐색과 방향 성분의 히스토그램 특징을 이용해 학습된 아이다부스트 분류기를 통하여 사람인지 아닌지를 탐지한다(S440).In the case of the intruder (Murray) area detection, the human case detects whether or not the person is through the learned Idaboost classifier using the histogram feature of the motion window search and the direction component in and out of the field farm (S440).

이때, 추출한 움직임 영역에 대해 다음과 같이 방향 성분의 히스토그램(HoG)특징과 아이다부스트 분류기를 이용해 이동를 탐지한다.At this time, the movement is detected using the histogram (HoG) characteristic of the direction component and the Idaboost classifier as follows.

방향성분의 히스토그램(HoG)특징을 추출하기 위해서 목적 영상에 대해 광원에 의한 영상의 잡음을 감소시키기 위해 회색조 변환 및 히스토그램 평준화를 거친다.In order to extract the histogram (HoG) feature of the directional component, the grayscale transformation and histogram equalization are performed to reduce the noise of the image caused by the light source for the target image.

그 후에 목적 영상을 가로 3픽셀, 세로 3픽셀 크기의 블록으로 나눈 후에 각 블록 내부의 픽셀이 대하여 Gradient의 방향성을 구한다.After that, the target image is divided into blocks of 3 pixels in width and 3 pixels in height, and then the direction of the gradient is obtained for the pixels inside each block.

분할한 각 블록에 대해 기울기를 기준으로 히스토그램을 생성하고 가장 큰 기울기 분포를 가진 기울기를 해당 블록의 평균 기울기로 선택한다.For each of the divided blocks, a histogram is generated based on the slope, and the slope having the largest slope distribution is selected as the average slope of the block.

생성된 각 블록들의 방향성 값과 크기 값을 선형으로 결합하면 HoG 특징 벡터가 된다. 이와 같은 특징 벡터를 아이다부스트 분류기를 이용하여 학습시키고 입력된 목적 영상에 대하여 사람 영역과 비사람 영역의 두 가지 형태로 분류를 수행하였다.Linearly combining the directional and magnitude values of the generated blocks results in a HoG feature vector. This feature vector was trained using the Idaboost classifier and classified into two types, human and non-human, for the input target image.

그리고 움직임 영역 추출은 카메라 또는 웹캠 영상으로부터 받아온 두번째 프레임과 첫번째의 프레임에 대해 전처리 과정으로 회색조 영상 변환 및 히스토그램 평준화를 수행한다.Motion region extraction performs grayscale image conversion and histogram equalization as a preprocessing process for the second frame and the first frame received from the camera or webcam image.

그 후에 임계치 필터링을 수행하여 이진 영상을 획득한 후에 차 영상을 구한다.After that, threshold filtering is performed to obtain a binary image, and then a difference image is obtained.

그 다음에 차영상에 대해 이어져 있는 모든 경계선을 구한 후에 경계선의 중심점을 추출한다.Next, after finding all boundary lines that follow the difference image, the center point of the boundary line is extracted.

이를 통하여 일정 임계치 이상 움직인 부분의 중심점 위치를 구할 수 있다.Through this, the position of the center point of the portion moved above a certain threshold can be obtained.

이 픽셀들을 군집화하여 일정 크기의 영역들로 추출한다.These pixels are clustered and extracted into regions of a certain size.

군집화의 과정은 움직임 중심점들에 대하여 일정픽셀 거리를 기준으로 인접 행렬을 생성한다. The clustering process generates an adjacency matrix based on a certain pixel distance with respect to the movement center points.

생성한 인접 행렬에 대하여 깊이 우선 그래프 탐색을 통하여 일정 그룹 단위로 묶어 사각형 형태의 영역을 생성한다.A rectangular region is created by grouping adjacent matrixes in a group by depth-first graph search.

한편 움직임 추적은 탐지된 침입자(머구리)의 영역에 대하여 멀티 레벨 매칭을 실시하여 침입자(머구리)의 움직임을 추적하고 거짓 영상 제거를 수행하여 잘못 탐지된 침입자를 리스트에서 제거한다(S450).On the other hand, the motion tracking performs multi-level matching on the detected invader (Murray) area to track the movement of the intruder (Murkey) and removes the falsely detected intruder from the list by performing false image removal (S450).

한편 겹침 상황을 고려한 향상된 유사도 계산과정이 필요하다.On the other hand, there is a need for an improved similarity calculation process considering the overlap situation.

이를 위하여 사람 영역 추적은 탐지된 침입자의 기존에 이미 탐지된 침입자와의 유사도를 측정한다. 유사도를 측정하여 동일임으로 판명되면 침입자의 위치 정보를 갱신한다.For this purpose, human domain tracking measures the similarity with the detected intruder. If the similarity is measured and found to be the same, the location information of the intruder is updated.

침입자 위치정보를 연결하면 침입자의 움직임 동선을 파악할 수 있다.By connecting the intruder location information, it is possible to identify the movement line of the intruder.

하지만 유사도 매칭이 연속적으로 잘못되면 제대로 된 탐지를 할 수 없다.However, if similarity matching is consecutively wrong, proper detection cannot be made.

따라서 매칭 과정은 추적으로 아주 중요하다.The matching process is therefore very important as a trace.

제안하는 알고리즘은 잘못된 탐지를 줄이기 위해서 멀티레벨 매칭을 수행한다.The proposed algorithm performs multilevel matching to reduce false detections.

멀티 레벨 매칭의 1단계는 겹침 상황을 고려한 향상된 유사도 계산 과정이다 Step 1 of multi-level matching is an improved similarity calculation process considering the overlap situation

향상된 유사도를 계산하기 위해 사용된 방법은 거리 변화율도, 색상 히스토리그램 유사도 겹침 처리이다.The methods used to calculate the improved similarity are the distance change rate and the color histogram similarity overlap processing.

칼만 필터를 이용한 움직임 추정은 멀티 레벨 매칭 1단계의 최종 유사도 계수 S가 일정 수치 이하일 경우 매칭 실패로 간주하고 2단계로 넘어간다.The motion estimation using the Kalman filter is regarded as a matching failure when the final similarity coefficient S of the multi-level matching step 1 is less than a predetermined value, and the process proceeds to step 2.

2단계에서는 칼만 필터를 이용해 움직임을 예측하여 그 위치에 대해 이미지 유사도 비교를 실시한다.In the second step, the Kalman filter is used to predict motion and to compare the image similarity for the location.

그리고 멀티 레벨 매칭은 총 3단계로 이루어지며 앞서 계산한 최종유사도 계수 S를 이용해 HoG 특징을 이용한 검출 윈도우 영역과 칼만 필터 예측 윈도우 영역, 인접 움직임 영역의 윈도우에 대해 유사도를 단계적으로 측정한다.Multilevel matching is performed in three stages, and similarity is measured stepwise for the detection window region using the HoG feature, the Kalman filter prediction window region, and the window of the adjacent motion region using the final similarity coefficient S calculated above.

1단계인 HoG 특징을 이용한 검출 윈도우 영역은 사람영역 탐지에서 탐지된 침입자에 대한 영역에 기존에 보유하고 있는 침입자 리스트와 비교하여 최종 유사도 계수 S가 일정 임계치를 초과하면 매칭 성공으로 판단하고 위치 정보를 갱신한다.The detection window area using the HoG feature, which is the first step, is compared with the list of intruders already held in the area for the intruder detected by the detection of the human area. Update

제안한 방법에서는 실험적으로 결정한 임계치 0.8을 적용하였다.In the proposed method, an experimentally determined threshold of 0.8 was applied.

2단계는 1단계에서 임계치를 넘지 못하는 영역에 대해서 적용한다.Step 2 applies to areas that do not exceed the threshold in step 1.

먼저 선형 칼만 필터의 예측점을 중심으로 하여 윈도우를 생성한다.First, a window is created around the predicted point of the linear Kalman filter.

생성된 윈도우의 이미지와 기존에 저장되어 있는 침입자 이미지와의 유사도를 계산하여 임계치를 초과하면 매칭 성공으로 판단한다.The similarity between the generated window image and the previously stored intruder image is calculated and when the threshold value is exceeded, it is determined that the matching is successful.

3단계인 인접 움직임 영역을 이용한 과정에서는 2단계를 실패한 영역에 대하여 수행하며, 가장 가까운 움직임 영역의 중심점에 대해 윈도우를 생성하고 해당 위치의 이미지와 기존에 저장된 이미지와의 유사도를 계산한다.In the step 3 using the adjacent motion area, step 2 is performed on the failed area, and a window is generated for the center point of the nearest motion area and the similarity between the image of the corresponding position and the previously stored image is calculated.

그리고 거짓 영상 제거가 필요하다.And false image removal is necessary.

상기의 알고리즘들을 사용하여 추적을 시도하지만 잘못된 HoG 특징 검출 영역으로 인하여 잘못된 윈도우들이 생기는 문제가 여전히 존재한다.Attempts to trace using the above algorithms, but there still remains a problem of false windows due to the wrong HoG feature detection region.

이러한 잘못된 윈도우를 제거하기 위해 Time To Live (TTL) 특성을 적용한 거짓 양성 제거 알고리즘을 적용한다.To eliminate these false windows, we apply a false positive elimination algorithm with Time To Live (TTL).

즉 각 윈도우에 TTL 특성을 적용한 후에 값을 이미지 처리 횟수에 의존하여 감소시키며 0인 경우 윈도우를 삭제한다.That is, after applying the TTL property to each window, the value is reduced depending on the number of image processing times. If 0, the window is deleted.

HoG검출 영역과 칼만 필터 예측 윈도우에 대하여 TTL을 적용하였다.TTL was applied to the HoG detection area and Kalman filter prediction window.

실제 사람인 영역을 연속해서 일정 횟수 동안 2단계 매칭에 임계치 이하로 나타나는 가능성이 아주 낮기 때문에 TTL를 감소 할 수 있다.The TTL can be reduced because it is very unlikely that the real human region will appear below the threshold in two-stage matching for a certain number of times in succession.

이 TTL 정보는 각 태크마다 가지고 있으며 초기값 15로 설정했다.This TTL information is provided for each tag and is set to an initial value of 15.

그런 다음 슬라이딩 윈도우 탐색을 수행한다.Then perform a sliding window search.

제안하는 알고리즘에서 사용한 사람에 대한 학습 영상은 크기가 64*128 픽셀 크기이며 목적 카메라 영상은 640*480 픽셀이므로 입력 받은 영상에 대해여 선형 검색을 해야 할 필요가 있다.Since the learning image of the person used in the proposed algorithm is 64 * 128 pixels in size and the target camera image is 640 * 480 pixels, it is necessary to perform a linear search on the input image.

선형 검색의 경우 한쪽 방향에서 이미지의 끝부분까지 진행한다.In the case of linear search, it proceeds from one direction to the end of the image.

또한 카메라의 시야각이 있으므로 카메라의 위쪽에서 나타나는 사람은 작게 보일 수 있어서 입력 받은 영상을 70 -130%까지 다른 비율로 스케일링한 7장 영상에 대하여 64*128 픽셀 크기의 윈도우로 사람 영역 탐색을 수행한다.In addition, because of the camera's field of view, people appearing from the top of the camera may appear small, so a human area search is performed with a 64 * 128 pixel window on the seven images that scale the input image by 70-130%. .

영상에 대하여 순차적으로 방향 성분의 히스토그램 특징을 구하여 분류하는 과정에 POSIX 스레드를 사용하여 병렬 처리를 수행한다.Parallel processing is performed using POSIX threads in the process of obtaining and classifying histogram features of direction components on images.

한편 필드양식장 딥러닝에 대하여 설명하기로 한다.Meanwhile, field farm deep learning will be described.

본 발명에서는 이러한 딥러닝으로 이미지 내용기반의 자동 시멘틱 어노테이션을 이용한다.In the present invention, such deep learning uses automatic semantic annotation based on image content.

내용기반 이미지 검색에서 BoVW(Bag of Visula Words) 기반의 분류 기법이 좋은 성능을 보이고 있다 BoVW (Bag of Visula Words) based classification is showing good performance in content-based image retrieval.

BoVW 를 구성하기 위해 사용되는 특징점 추출 알고리즘인 SIFT -> 이미지 인식에 주로 사용되는 방법으로 이미지의 색상, 위치, 크기, 회전 등의 변화에 강인한 특징점을 추출한다.It is a method mainly used for SIFT-> image recognition, which is a feature point extraction algorithm used to construct BoVW, and extracts feature points that are robust to changes in image color, position, size, and rotation.

SIFT알고리즘은 4*4 배열에 8개의 방향으로 나누어진 벡터들을 합한 128개의 dimension을 갖도록 Keypoint descriptor 특징점의 위치좌표(X,Y), scale 및 orienThe SIFT algorithm is a position coordinate (X, Y), scale and orien of the keypoint descriptor feature point to have 128 dimensions that add up to 4 * 4 arrays and vectors divided in 8 directions.

Tation의 정보를 가진 frame를 구성한다.Compose a frame with information of the tation.

이미지로부터 특징점을 추출한 후에 k-means 알고리즘을 사용해서 k개의 Visual Words가 되는 local visual blocks 곧 BoVW 를 얻을 수 있다.After extracting the feature points from the image, we can use the k-means algorithm to obtain local visual blocks, or BoVWs, which are k Visual Words.

어노테이션을 위하여 local visual blocks 집합 Ri와 텍스트 집합으로 구성된 주석 keyword Kj사이의 조건부 확률 P(Kj / Rj)을 통해 매칭 등급이 높은 순서대로 정렬하여 적합한 주석을 얻을 수 있다.For annotations, suitable annotations can be obtained by sorting in order of highest matching grade through the conditional probability P (Kj / Rj) between the local visual blocks set Ri and the annotation keyword Kj composed of the text set.

하지만 SIFT나 SURF와 같은 알고리즘은 Natural Scene Retrieval과 같이 영상의 특징적인 요소가 떨어지는 배경이미지에서는 좋은 성능을 보이지 못한다.However, algorithms such as SIFT and SURF do not perform well on background images that lack the characteristic elements of the image, such as Natural Scene Retrieval.

최근에는 영상 인식 분야에서 딥러닝(deep learning)기법을 사용한 CNN (Convolutional Neural Network) 방법이 컨볼루션 영상처리 방법을 사용해서 SIFT가 가지고 있던 단점을 극복하여 이미지 인식에 뛰어난 성능을 보이고 있다.Recently, in the field of image recognition, CNN (Convolutional Neural Network) method using deep learning technique overcomes the disadvantages of SIFT by using convolution image processing method and shows excellent performance in image recognition.

SIFT기반이 BoVW는 이미지로부터 특징점을 추출한 후에 local visual blocks 즉 BoVW를 구성하는 방법으로서 기본적으로 미분을 이용한 이미지 화소값의 변화 정보를 측정하여 그 변화가 큰 영역들을 뽑아내어 특징 벡터를 구성하는 것이므로 배경 이미지보다는 뚜렷한 경계를 지닌 객체 이미지에서 더 효과적이다.Based on SIFT, BoVW is a method of constructing local visual blocks, that is, BoVW, after extracting feature points from an image.It basically measures the change information of image pixel values using differentiation, extracts regions with large changes, and forms a feature vector. It is more effective on object images with distinct boundaries than on images.

반면 CNN이 기초로 하는 딥러닝 기법은 별도의 특징 추출 알고리즘 없이 패턴 인식이 통합적으로 이루어지기 때문에 계층들의 연관성을 활용하여 배경 이미지에서도 좋은 결과를 얻을 수 있다.On the other hand, the deep learning technique based on CNN can achieve good results in the background image by utilizing the association of layers because pattern recognition is integrated without a separate feature extraction algorithm.

딥러닝 (Deep learning)은 신경망 네트워크로 많은 수의 계층을 만들어 학습을 하는 기계학습 분야이다.Deep learning is a field of machine learning that learns by creating a large number of layers with neural network.

최근 CNN 기법을 사용하여 이미지에 의미 정보를 자동으로 태깅하기 위한 다양한 연구들이 진행되고 있다.Recently, various studies have been conducted to automatically tag semantic information on images using CNN techniques.

CNN구조를 사용하여 다양한 방법으로 이미지 분석을 시도 하고 있는데 이를 위해 미리 수집된 정제된 이미지 데이터 셋으로 CNN을 훈련시킨다.(S460)Attempts are made to analyze the image in various ways using the CNN structure, and for this purpose, the CNN is trained using the previously collected purified image data set (S460).

일반적으로 PASCAL Visual Object Classes, MIT Indoor Scene, ImgaeNet, Caltech 101 등 컴퓨터 비전 분야의 실험을 위한 정제된 이미지 테이터 셋이 사용된다.Typically, refined image data sets are used for experiments in the field of computer vision, including PASCAL Visual Object Classes, MIT Indoor Scene, ImgaeNet, and Caltech 101.

이 연구에서는 이미지에 라벨이 붙여진 데이터 셋으로 CNN을 훈련시킨 후 동일 데이터 셋에서 분류 실험을 한다.In this study, we train a CNN with a dataset labeled on an image and then perform a classification experiment on the same dataset.

연구의 실험에서는 훈련과 분류에 사용된 데이터 셋에 따라 다른 결과를 보이고 있다.Experiments in the study show different results depending on the data sets used for training and classification.

PASCAL의 이미지셋으로 실험한 결과는 평균 72.6%의 이미지 자동 태깅 정확도를 보였고 MIT Indoor 이미지셋에서는 평균 59.6%의 정확도를 보이고 있다.Experimental results with PASCAL's image set showed an average image auto tagging accuracy of 72.6%, and an average of 59.6% accuracy with the MIT Indoor image set.

이것은 태깅 방법에 비해 확실히 더 나은 결과임이 분명하다.This is clearly a better result than the tagging method.

위 실험에서 테스트 이미지들이 훈련 이미지 셋에서 무작위로 추출된 것이라 해도 인위적으로 수집되고 정제된 데이터이므로 실제 급변하는 인터넷 공유사이트에 사용자들에 의해 저장된 이미지들을 대상으로 하면 어떤 결과가 얻어질 것인지 확인 할 필요가 있었다.In the above experiment, even though the test images are randomly extracted from the training image set, they are artificially collected and refined data. Therefore, it is necessary to confirm what results will be obtained by targeting images stored by users on a real-time rapidly changing Internet sharing site. There was.

본 발명에서는 CNN기법을 구현하여 현재 소셜 이미지 사이트로 가장 각광 박고 있는 인스타그램 이미지들을 대상으로 자동 태깅 및 분류실험을 수행하였다.In the present invention, by implementing the CNN technique, the automatic tagging and classification experiments were performed on Instagram images that are currently in the spotlight as social image sites.

CNN 은 전체적으로 5개 Convolution, max - pooling, normalization 계층과 3개의 fully-connected 계층으로 구성했다CNN consists of five Convolution, max-pooling, normalization layers and three fully-connected layers.

Convolution 계층에서 여러 번의 convolution, max-pooling, normalixation을 수행하면서 이미지의 정보들이 겹치게 되는데 이로써 이미지의 특징을 불변하도록 학습할 수 있고 SIFT 나 SURF 와는 달리 전체적인 이미지 특징으로 고려하기 때문에 배경 이미지에서도 강한 성능을 보이고 있다.In the convolution layer, multiple convolution, max-pooling, and normalixation information overlaps the information of the image. This enables the image to be invariably learned. It is showing.

N*N의 입력이미지 Couvolution 계층에 연결되어 있고 m*m 의 convolution 필터가 있을 때 convolution layer의 크기는 (N-m+1) * (N - m +1)이 된다When connected to the input image Couvolution layer of N * N and there is a convolution filter of m * m, the size of the convolution layer is (N-m + 1) * (N-m +1)

각 convolution 계층은 이전 계층의 출력으로부터 yij(l) 입력을 받는다.Each convolution layer receives yij (l) input from the output of the previous layer.

정확하고 의미 있는 특징을 추출하기 위해서 weight 인 convolution 필터를 훈련시키는데 이것은 오류 역전파 알고리즘 (Backpropagation)과 경과도 연산 방법을 통해 이루어진다. In order to extract accurate and meaningful features, we train a convolution filter that is weighted through error backpropagation and gradual computation.

최상단의 3개의 계층에서 full-connected를 수행하게 된다.Full-connected will be performed at the top three layers.

FC6 와 FC7 계층에서 지속적인 훈련과 특징을 추출하고 마지막 계층에서는 최종적으로 Softmax 분류를 수행하게 된다.Continuous training and features are extracted from the FC6 and FC7 tiers and finally the Softmax classification.

CNN은 이미지에 컨볼루션 필터를 사용하여 계산이 빠르고 특정 객체뿐만 아니라 배경을 포함한 이미지 전체를 고려할 수 있다는 점에서 뛰어나다고 할 수 있다.CNN excels at using convolution filters on images, allowing for fast calculations and the ability to consider not only certain objects but the entire image, including the background.

최근 여러 연구 에서 CNN기반 이미지 인식 및 분류를 위한 다양한 시도가 전개되고 있다.Recently, various studies have been developed for CNN-based image recognition and classification.

실험용 정제 이미지 데이터 셋을 사용하여 CNN의 성능을 입증한 것들인 반면 연구에서 최근 사용 사용자수가 급증하고 있는 소셜 미디어 공유사이트인 인스타그램을 사용하여 사용자들이 직접 업로드하는 일상생활 이미지에서도 CNN기반의 자동 태깅이 효과적인지 검증하고자 하였다.While using CNN's experimental image data set to demonstrate CNN's performance, CNN-based automatic is used for daily images uploaded directly by users using Instagram, a social media sharing site that has recently seen a surge in users. We tried to verify that tagging was effective.

그 결과 기존의 방법인 SIFT기반의 BoVW에 의한 태그는 물론 이고 사용자들이 직접 등록하는 태그들보다 더 높은 정확도와 섬세함을 가진 태그들을 얻을 수 있다.As a result, it is possible to obtain tags with higher accuracy and detail than tags registered by users, as well as tags by SIFT-based BoVW.

빅데이터 시대에 진입하면서 방대한 양의 데이터를 사용해서 스스로 학습하고 분류하는 딥러닝을 사용한 연구가 지속적으로 좋은 성능을 보이고 있다.As we enter the era of big data, research using deep learning, which uses huge amounts of data to learn and classify on its own, continues to perform well.

영상인식 분야에서 CNN 은 현재 인간의 판단수준을 따라잡기 위해 발전을 거듭하고 있다.In the field of image recognition, CNN is currently evolving to keep up with human judgment.

이어 영상 분산 / 병렬처리 기술과 알고리즘을 설명하기로 한다.Next, image dispersion / parallel processing techniques and algorithms will be described.

IBM에서는 대규모 영상 검색을 위한 시스템 개발에 있어서 하둡(Hadoop) 기반의 분산 / 병렬 처리 시스템을 적용하여 개발하였다.IBM developed Hadoop-based distributed / parallel processing system to develop a system for large-scale image retrieval.

버지니아 대학에서는 영상 빅데이터에 대한 분산컴퓨팅 처리를 위한 API(Applicati On Program Interface)를 제공하는 하둡 MapReduce 라이브러리인 HIPI(Hadoop Image Processing Interface for image - based map - reduce Tasks) 프레임워크를 개발하고 있다.The University of Virginia is developing the Hadoop Image Processing Interface for image-based map-reduce Tasks (HIPI) framework, a Hadoop MapReduce library that provides an API (Applicati On Program Interface) for distributed computing for image big data.

HIPI는 MapReduce 프레임워크 기반으로 영상처리 및 비전 응용프로그램에 개방적이고 확장 가능한 라이브러리를 제공한다.HIPI is based on the MapReduce framework and provides an open and extensible library for image processing and vision applications.

사용자가 MapReduce 프레임워크의 자세한 내용을 파악할 필요없이 영상 기반 분산/병렬처리가 가능하도록 지원한다.It supports image-based distributed / parallel processing without the user having to know the details of MapReduce framework.

구글 시스템은 천 만개의 200*200 이미지들에 대해 1B의 파라미터들을 학습하기 위해 16개의 코어들을 가지고 있는 1,000개의 머신을 이용하여 병렬처리를 수행하고 있다.The Google system performs parallel processing on 1,000 machines with 16 cores to learn 1B parameters for 10 million 200 * 200 images.

또한 모바일 디바이스 영상분석 알고리즘 실시간 가속화되고 있는데, 사물 인터넷 환경이 도래하면서 보안 및 방법을 위한 비디오 디바이스의 수가 급격히 증가 예상된다.In addition, mobile device image analysis algorithms are being accelerated in real time. As the IoT environment arrives, the number of video devices for security and methods is expected to increase rapidly.

비디오 디바이스 -> 이미지 센서, 프로세서, 무선통신 모뎀 등을 내장하고 있는 저전력 임베디드 시스템으로, 스마트폰, IP카메라, 스마트 카메라 등이 이에 해당한다.Video devices-> Low-power embedded systems that incorporate image sensors, processors, and wireless modems. Smartphones, IP cameras, and smart cameras are examples.

PC보다 성능이 좋지 않은 프로세서를 내장하고 있기 때문에 화소 기반 연산을 기반으로 하는 비디오 영상분석 알고리즘과 같이 연산량이 많이 요구되는 애플리케이션의 빠른 처리를 위해서는 병렬화 및 가속화가 필요하다.Because it has a built-in processor that performs worse than a PC, parallelization and acceleration are required for fast processing of high-demand applications such as video image analysis algorithms based on pixel-based computation.

이를 위하여 SIMD 기반 비디오 영상 분석 알고리즘 병렬화를 할 수 있는데, SIMD의 데이터 처리 방식은 배경 차분 기반의 비디오 영상 분석 알고리즘 -> 화소 기반 연산을 수행하는 모듈은 연산량이 많이 요구되고 영상 해상도가 증가함에 따라서 연산량 역시 증가한다.For this purpose, SIMD-based video image analysis algorithm can be parallelized. The SIMD data processing method is based on background difference-based video image analysis algorithm-> pixel-based module. Increases too.

그러 하기 때문에 모바일 환경에서의 실시간 동작을 위해서는 병렬화 및 가속화가 필요하다.Therefore, parallelization and acceleration are required for real-time operation in a mobile environment.

모바일 환경에서 데이터의 빠른 처리는 병렬 프로그래밍을 통하여 충족할 수 있다Fast processing of data in a mobile environment can be met through parallel programming.

단일 명령어로 복수의 데이터를 처리하는데 데이터 병렬 처리 방식인 SIMD를 사용하여 데이터 처리 속도를 가속화한다(S470).The data processing speed is accelerated by using a SIMD, which is a data parallel processing method, to process a plurality of data in a single instruction (S470).

배경 차분 기반 비디오 영상 분석 알고리즘을 이용할 수 있는데, We can use background difference based video image analysis algorithm,

Video -> RGB to Gray -> Background -> Foreground -> Morphology -> Labeling Seq conversion Generation Extraction CperationVideo-> RGB to Gray-> Background-> Foreground-> Morphology-> Labeling Seq conversion Generation Extraction Cperation

-> Object   -> Object

TrackingTracking

설명 : RGB to Gray conversion -> Roreground Extreaction Description: RGB to Gray conversion-> Roreground Extreaction

Object Tracking -> Background GenerationObject Tracking-> Background Generation

단일 명령어로 단일 데이터를 처리하는 SISD와 SIMD의 복수의 데이터를 처리하는 방식을 비교하여 나타낸다.It compares the SISD processing a single data with a single command and the way of processing a plurality of data of the SIMD.

SISD는 같은 종류의 명령어로 처리될 복수의 데이터를 개별적으로 처리하는 반면 SIMD는 복수의 데이터를 벡터화하여 단일 명령어로 복수의 데이터를 동시에 처리한다.SISD processes a plurality of data individually to be processed by the same type of instruction, while SIMD vectorizes a plurality of data to process a plurality of data simultaneously in a single instruction.

따라서 SIMD 기반 데이터 병렬 처리는 인접 화소들이 데이터 의존성이 없고 같은 종류의 명령어로 처리되어야 하는 음영이 있는 모듈에 적용 될 수 있다.Thus, SIMD-based data parallelism can be applied to modules with shading where adjacent pixels are not data dependent and must be processed with the same type of instruction.

SIMD 기반 비디오 영상 분석 알고리즘 병렬화 방법은 SISD의 경우 각각의 화소 데이터에 순차적으로 모두 접근하여 같은 명령어를 반복적으로 수행하지만, SIMD의 경우 동일한 명령어의 수행을 기다리는 인접한 복수의 화소 데이터를 벡터화하여 단일 명령어로 복수의 화소 데이터를 동시에 처리한다.In the SIMD-based video image analysis algorithm, the parallelization method sequentially accesses all the pixel data in the SISD and executes the same instruction repeatedly.However, in the case of the SIMD, the adjacent pixel data waiting for the same instruction is vectorized into a single instruction. A plurality of pixel data is processed simultaneously.

따라서 SIMD 병렬화를 사용하면 SISD를 사용하는 경우에 비하여 동일한 데이터 처리에 소요되는 CPU 사이클 수를 감소시킬 수 있어 배경 차분 기반 비디오 영상 분석 알고리즘의 처리 속도를 가속화할 수 있다.Therefore, using SIMD parallelism can reduce the number of CPU cycles required to process the same data as compared to using SISD, thereby accelerating the processing speed of the background difference-based video image analysis algorithm.

또한 동일 CPU 사이클 수를 사용하면서 더 많은 데이터를 처리할 수 있으므로 소비에너지도 절감된다.It also saves energy by allowing more data to be processed while using the same number of CPU cycles.

Cortex - A 계열의 CPU에 대하여 지원되는 ARM SIMD(NEON) 모델을 사용하여 배경 차분 기반 비디오 영상분석 알고리즘의 데이터 처리 방식을 병렬화 한다.The ARM SIMD (NEON) model, which is supported for the Cortex-A series CPUs, is used to parallelize the data processing of the background difference-based video image analysis algorithm.

배경 차분 기반 비디오 영상 분석 알고리즘의 NEON 병렬화로 인한 기존의 C기반 SISD 구현 대비 성능 향상을 검증하기 위하여 2가지 실험이 진행되었다.Background Two experiments were conducted to verify the performance improvement compared to the existing C-based SISD implementation due to the NEON parallelization of the difference-based video image analysis algorithm.

1번째 실험은 SISD 구현 대비 처리 속도 가속화를 검증하기 위한 실험으로 NEON 병렬화가 적용된 모듈들의 처리 시간을 측정하여 비교하였다.The first experiment is to verify the processing speed acceleration compared to the SISD implementation. The processing time of the modules with NEON parallelism is measured and compared.

2번째 실험은 SISD 구현 대비 소비에너지 절감을 검증하기 위한 실험으로 배경 차분 기반 비디오 영상 분석알고리즘 수행 시 소비되는 에너지량을 Monsoon 파워미터로 측정하여 비교하였다.The second experiment is to verify the energy saving compared to the implementation of SISD, and the amount of energy consumed when performing the background difference-based video image analysis algorithm is measured and compared with Monsoon power meter.

모든 실험은 Cortex-A15 CPU를 내장하고 있는 삼성 갤러시S4를 사용하여 진행, 영상 해상도는 CIF(320*240) D1(720*480) 고려되었다.All experiments were conducted using Samsung's Galaxy S4 with a Cortex-A15 CPU, and the image resolution was considered CIF (320 * 240) D1 (720 * 480).

SISD와 NEON을 사용했을시 비디오 영상 분석 알고리즘이 모듈별 처리시간을 병렬화가 적용된 모듈별로 나타낸다.When using SISD and NEON, the video image analysis algorithm shows the processing time for each module by parallel module.

Overall은 병렬화가 적용되지 않은 모듈까지 모두 포함한 전체 처리시간으로 측정된 결과이다.Overall is the result of total processing time including all modules without parallelism.

2개의 해상도에 대하여 각 모듈들의 처리 속도는 약 3.36 - 26.96배 가속화되었고 전체 처리 속도는 해상도 D1에서 약 5.34배 가속화되었다The processing speed of each module was accelerated by 3.36-26.96 times for the two resolutions, and the overall processing speed was accelerated by 5.34 times at the resolution D1.

이는 복수의 데이터를 동시에 처리 할수 있는 NEON 병렬화로 인하여 동일한 데이터를 처리하는데 소요되는 CPU 사이클 수가 감소되었기 때문이다.This is because NEON parallelism, which can process multiple data simultaneously, reduces the number of CPU cycles required to process the same data.

저전력 모바일 비디오 디바이스의 실시간 동작을 위해 적용될 수 있다.Applicable for real time operation of low power mobile video devices.

본 발명에서는는 모바일 환경에서 배경 차분 기반 비디오 영상분석 알고리즘의 저전력, 실시간 동작을 위하여 단일 명령어로 복수의 데이터를 처리하는 데이터 병렬 처리 방식인 SIMD를 사용하여 병렬화 하였다.In the present invention, parallelization is performed using SIMD, which is a data parallel processing method that processes a plurality of data in a single instruction for low power and real time operation of a background difference based video image analysis algorithm in a mobile environment.

색공간 변환, 배경생성, 전경추출, 모폴로지 연산과 같은 화소 기반 독립 연산들이 병렬화 되었고 Android 기반이 모바일 플랫폼에서 구현되었다.Pixel-based independent operations such as color space conversion, background generation, foreground extraction, and morphology operations have been parallelized, and Android based has been implemented on mobile platforms.

기존의 C 기반 SISD 구현과 비교 D1급 비디오에 대해 비디오 영상 분석 알고리즘의 전체 처리 속도는 약 5.34배 가속화되었고 소비에너지는 약 4.08배 절감되었다.Compared with the existing C-based SISD implementation, the overall processing speed of the video image analysis algorithm is accelerated by about 5.34 times and energy consumption is reduced by about 4.08 times for the D1 class video.

한편 지능형 영상 분석 기술을 이용한 영상의 정보를 분석하여 자동으로 이상 행위를 탐지하고 관리자에게 정보를 전송하는 기술은 다음과 같다.On the other hand, by analyzing the information of the image using the intelligent image analysis technology to detect abnormal behavior automatically and transmit the information to the administrator as follows.

침입을 미연에 방지하기에는 한계가 있기에 도난 발생 이전인 침입행위를 포착 할 필요가 있다.There is a limit to preventing intrusions, so it is necessary to catch intrusions before theft.

필드양식장 일정한 경계 내외 근처에서 선박, 침입자(머구리, 잠수부), 부표를 찾고 위치를 추정하여 침입행위를 검출하는 방법이 필요하다.It is necessary to find ships, intruders (fishes, divers), buoys, and estimate their location to detect intrusions in and around field boundaries.

필드양식장 내 침입자의 도난을 검출하기에는 어려움으로 절도행위 검출을 위해서 먼저 선박, 침입자(머구리), 부표를 일정한 필드양식장 경계내외에서 위치를 추정하여 나타날 영역을 지정하고 그 영역에서 색깔, 문자, 표지판, 수량 등 특징을 이용하여 검출한다(S480).It is difficult to detect theft of invaders in the field farms, so in order to detect theft, ships, intruders (murcoons), and buoys must be located within and outside the boundaries of the field farms. Detection using the quantity and the like (S480).

영상 내에서 필드양식장 침입으로 인하여 도난이 발생하면 전체적인 화면의 변화를 검출하거나 영상의 장면 전환 검출법을 이용하여 절도행위를 검출하는 방법이다.When theft occurs due to the invasion of field farms in the image, theft is detected by detecting the change of the whole screen or by using the scene change detection method of the image.

절도를 하기 위해서는 밤이나 낮에 필드양식장 근처에 선박을 이용하여 침입자(머구리)를 바다에 잠수하여 필드양식장안으로 침입시켜 절도한 해산물을 망에 넣고 부표를 달아 수중에 띄우면 이를 잠수부가 이동시켜 선박에 넘긴다.In order to steal, at night or day, a ship near a field farm can be used to dive an invader (mercury) into the sea and invade the field farm. Turn it over.

만약 절도사실이 발각되는 경우 부표를 매단 해산물 망의 끈을 잘라 수장시켜 버려 증거 인멸시도를 할 수 있다.If theft is found, the buoys can be chopped off and tied to a string of seafood to try to destroy the evidence.

이를 경우 필드양식장내에서 절도를 하기 위해서는 부표 수량의 유무 증감이 발생하며 침입자의 잠수 및 부표 위로 손이 올라가는 행위를 검출한다. In this case, to steal in the field farm, the presence or absence of the number of buoys is generated, and the intruder's diving and raising of the hand on the buoy are detected.

마지막으로 종합하여 도식해법을 이용하여 각 프레임 마다 절도 행위의 확률을 구하여 일정 확률 이상이 되면 절도자로 검출한다.. 그리고 검출결과에 따라 무인비행체는 관리자의 단말기(스마트 폰 등)에게 일정 확률 이상의 경우에 대하여 해당 정보를 전송한다(S490). 이러한 경우 일반 스킨스쿠버와 같은 관광객 등의 경우에는 절도자로 검출되지 않으므로 자동 정보 전송 신고가 되지 않아 관리자 역시 불필요한 정보를 수신하지 않게 된다.Finally, using the schematic solution, the probability of theft is obtained for each frame and detected as theft by more than a certain probability. And according to the detection result, the unmanned aerial vehicle is more than a certain probability to the administrator's terminal (smartphone, etc.). The corresponding information is transmitted (S490). In such a case, tourists such as general skin scuba are not detected as thieves, so automatic information transmission is not reported, and the administrator also does not receive unnecessary information.

절도자의 특징으로 잠수와 부표를 사용하기 위하여 수량, 위치 변경 및 반복적인 움직이는 행동 등 행동인식의 계층적 기반 서술적 방법으로 접근한다.Approaches are hierarchical, descriptive methods of behavior recognition, such as quantity, location changes, and repetitive moving behaviors, to use diving and buoys as features of theft.

인공지능 분야의 기계학습과 이를 위해 인공신경망을 이용하는 딥러닝(Deep Learning) 기술의 개발 가속화가 필요하다.It is necessary to accelerate the development of deep learning technology using artificial neural networks for machine learning in artificial intelligence.

딥러닝 기반 영상처리 기술 개발 동향을 설명하기로 한다.The development trend of deep learning based image processing technology will be explained.

첫 번째 시각인지 기술은 객체인식, 컴퓨터 비전, 행동 및 상황 이해, 영상지식 처리 및 동영상 검색 기술에 활용되는 기술을 의미한다.The first visual cognitive technology refers to the technology used for object recognition, computer vision, behavior and situation understanding, image knowledge processing and video search technology.

두 번째 공간인지 기술은 2차원 및 3차원 영상에서의 거리 및 깊이 분석, 공간상의 사물을 이해하거나 인지하는 데 활용 될 수 있다.The second spatial cognitive technique can be used to analyze distances and depths in 2D and 3D images, and to understand or recognize objects in space.

세 번째 스토리 압축 및 창작 기술은 영상으로부터 스토리를 이해하거나 사물 객체를 구분하거나 영상으로부터 의미 있는 내용을 요약하고 영상을 자동으로 편집하는 기술에 활용된다.The third story compression and creation technique is used to understand the story from the video, to separate the object of object, to summarize the meaningful content from the video, and to automatically edit the video.

그리고 기계학습 기술은 영상 내 사물에 대한 통계처리, 사물 간 클러스터링, 영상처리를 위한 기계학습용 비감독학습, 강화학습에 활용될 수 있다.The machine learning technology can be used for statistical processing of objects in an image, clustering between objects, non-supervised learning for machine learning, and reinforcement learning for image processing.

첫번째로는 감독 학습(Supervised Learning) 기반의 CNN 이 있다.The first is CNN, which is based on supervised learning.

시각인지기술, 공간인지기술(2차원 및 3차원 영상에서의 거리 및 깊이 분석, 공간상의 사물을 이해하거나 인지), 스토리 압축 및 창작기술 (영상으로부터 스토리지를 이해하거나 사물 객체를 구분하거나 영상으로부터 의미 있는 내용을 요약하고 영상을 자동으로 편집하는 기술), 기계학습기술(영상 내 사물에 대한 통계처리, 사물간 클러스팅, 영상처리를 위한 기계학습용 비감독 학습 강화학습)등 데이터를 사용하여 학습된 CNN(pre-trained CNN)을 사용하는 방법이다.Visual cognitive technology, spatial cognitive technology (distance and depth analysis in 2D and 3D images, understanding or recognizing objects in space), story compression and creation technology (understand storage from images, distinguish objects from objects, and mean from images Technology that summarizes the existing content and automatically edits the image), machine learning technology (statistical processing of objects in the image, clustering between objects, non-supervised learning reinforcement learning for image processing), etc. This is a method using pre-trained CNN.

이미지 내 사물 분류를 위해서 ImageN 데이터로 학습시킨 CNN을 이용하여 ImageNet이 아닌 다른 데이터 셋에서 사물을 검출하는 형태로 응용된다.It is applied in the form of detecting things in data sets other than ImageNet using CNN trained with ImageN data for classifying things in images.

이러한 검출 방식을 프레임 단위의 시간축을 가진 비디오로 적용하면 비디오의 매 프레임마다 이미지의 특징들을 추출하여 그 값을 평균 내어 특징값으로 사용하거나 매 프레임별 이미지와 광류(optical flow)의 특징 값을 인식에 사용하고 그 결과 값을 평균내는 방식으로 사용된다.When the detection method is applied to a video having a frame-based time axis, the feature of the image is extracted every frame of the video, and the averaged value is used as the feature value or the feature value of the image and optical flow is recognized for each frame. It is used in the method and averaged the resultant value.

또 다른 방법은 비디오를 2차원 이미지 데이터가 아닌 이미지가 시간축을 따라서 쌓인 3차원 데이터로 해석하여 시간축에 대해서도 컨볼루션을 적용해 나가는 3D convolution을 처리하는 방식이다.Another method is to process 3D convolution, which interprets the video as three-dimensional data accumulated along the time axis instead of two-dimensional image data.

이 방식은 인접한 프레임들 간에 유용한 패턴들이 각 프레임에만 있는 것이 아니라 프레임 시작이나 중간 및 끝 어느 곳에서도 등장 할 수 있기 때문에 일정한 시간 간격(예 5프레임 간격)의 커널을 두어 시간축으로 컨볼루션 연산을 수행하게 된다.This method performs convolutional operations on the time base with kernels of constant time intervals (eg 5 frame intervals), because useful patterns between adjacent frames can appear anywhere in the beginning, middle, and end of a frame. Done.

문제는 학습해야 할 파라메터가 더 많아지고 학습을 위한 다수의 데이터가 더 필요하다는 것이다.The problem is that there are more parameters to learn and more data to learn.

최근에는 다수의 데이터가 부족한 경우를 보완하기 우해 매 프레임별로 추출된 CNN의 특징값을 시계열 형태로 변환한 후에 각 특징값별 시계열에 대해 temporal pooling연산을 적용하여 비디오를 분석하는 방법이 제안된다.Recently, in order to compensate for the lack of a large amount of data, a method of analyzing a video by applying temporal pooling to the time series of each feature value after converting the feature value of the CNN extracted for each frame into a time series form is proposed.

두번째로는, Stacked autoencoders 이 있다.Second, there are Stacked autoencoders.

입력 데이터와 출력데이터를 동일하게 하는 것을 목표로 하는 오토인코더를 다층으로 쌓은 Stacked autoencoders를 사용하는 방법이 있다.One way is to use Stacked autoencoders, which are stacked in layers of autoencoders that aim to equalize input and output data.

세번째로는, RDNN / LSTM이 있다.Third, there is RDNN / LSTM.

비디오와 같이 시간축을 포함한 영상처리를 위해 RDNN(Recurrent Deep Neural Network)이나 LSTM(Long - Short Term Memory)을 이용한 순환적 딥러닝 방법이다 It is a cyclic deep learning method using RDNN (Recurrent Deep Neural Network) or Long-Short Term Memory (LSTM) for image processing including time axis like video.

이 방식은 출력으로 나오는 특징 패턴들의 인식결과들 사이의 시간적 연관성을 다시 순환 신경망의 일종인 장단기 기억 모델(LSTM)을 이용하여 학습과 추론을 결합한 방식이라 볼 수 있다.This method combines learning and inference using the short-term and long-term memory model (LSTM), which is a kind of cyclic neural network, in which the temporal association between the recognition results of the feature patterns coming out is output.

네번째로는, CNN과 기존의 특징 추출 방법을 결합한 방식이 있다.Fourth, there is a combination of CNN and existing feature extraction methods.

다중 스케일 CNN을 이용하여 영상의 각 화소가 어떤 물체의 일부인지를 대략적으로 판별하고 판별한 화소들을 슈퍼픽셀 단위로 군집화한 후 슈퍼 픽셀들을 연결하여 세그먼트 그래프를 구성한 후에 세그먼트 그래프에 대해 기존의 다층컷(multi - 1evel cut) 알고리즘을 이용하여 CNN의 판별 결과와 가장 잘 조화되는 분할 조합을 선택하여 장면 영상 전체를 분석하는데 사용한다.Using multi-scale CNN, each pixel of the image is roughly identified as a part of an object, the determined pixels are clustered in units of super pixels, and the super pixels are connected to form a segment graph. Using the (multi-1evel cut) algorithm, the division combination that best matches the CNN's discriminant results is selected and used to analyze the entire scene image.

또 다른 방식은 기존의 컴퓨터 비전 기술을 이용하여 물체가 존재할 것을 추정되는 후보 영역들을 추출한 후 각 후보 영역에 대해 CNN을 활용하여 실제 물체인지를 판별하고 인식을 수행하는 R-CNN(regions with CNN feature)이 있다.Another method is R-CNN (regions with CNN feature) that extracts candidate regions that are supposed to exist by using computer vision technology and then uses CNN for each candidate region to determine whether they are real objects and perform recognition. There is.

이 밖에 CNN 구조에 Extreme learning machine 의 학습 방법을 결합하여 학습 속도를 개선하고 이를 차선 검출 향상에 사용한다.In addition, we combine the CNN structure with the learning method of the extreme learning machine to improve the learning speed and use it to improve lane detection.

여기서 Extreme learning machine 은 중국 칭화대에서 제안한 학습방법으로 역전파 방식의 오류조절 방식이 학습 속도가 느리기 때문에 의사역행렬(pseudo inverse)을 사용하여 한 번의 연산으로 최적의 출력 가중치를 계산하는 학습방법이 있다.Extreme learning machine is a learning method proposed by Tsinghua University. Because the error propagation method of backward propagation method has a slow learning speed, there is a learning method that calculates the optimal output weight by one operation using pseudo inverse.

이상과 같은 예로 본 발명을 설명하였으나, 본 발명은 반드시 이러한 예들에 국한되는 것이 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서 본 발명에 개시된 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 예들에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 한다. Although the present invention has been described by way of example as described above, the present invention is not necessarily limited to these examples, and various modifications can be made without departing from the spirit of the present invention. Therefore, the examples disclosed in the present invention are not intended to limit the technical spirit of the present invention but to describe the present invention, and the scope of the technical spirit of the present invention is not limited by these examples. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

100 : 무인비행체 110 : 통신부
120 : 센서부 130 : 비행부
140 : 카메라부 150 : 영상변환부
160 : 영상저장부 170 : GPS 수신부
180 : 불법행위 식별부 190 : 경고방송부
200 : 신호 발신부 210 : 운행거리 계산부
220 : 제어부 300 : 무인비행체 조정기
310 : 통신부 320 : 비행 조작부
330 : 디스플레이부 340 : 카메라 제어부
350 : 음성입력부 360 : 알람 발생부
370 : 선박추적 선택부 380 : 운행영역 설정부
390 : 제어부
400, 410, 420, 430 : 필드양식장 500, 510 : 스마트 기기
600 : 필드양식장 부표 610 : 부표고정장치
620 : 머구리 630 : 잠수부
700 : 해경 레이더 800 : 통신망
900 : 감시 서버 910 : 통신부
920 : 데이터베이스 930 : 운행정보 저장부
940 : 운행정보 저장부 950 : 무인비행체 관리요청부
960 : 비용계산 및 청구부 970 : 제어부
1000 : 금융사 서버
100: unmanned aerial vehicle 110: communication unit
120: sensor unit 130: flight unit
140: camera unit 150: image conversion unit
160: image storage unit 170: GPS receiver
180: illegal activity identification unit 190: warning broadcasting unit
200: signal transmission unit 210: driving distance calculation unit
220: control unit 300: drone regulator
310: communication unit 320: flight control unit
330 display unit 340 camera control unit
350: voice input unit 360: alarm generating unit
370: ship tracking selector 380: operation area setting unit
390: control unit
400, 410, 420, 430: Field farm 500, 510: Smart device
600: field farm buoy 610: buoy fixing device
620: Mug 630: diver
700: maritime radar 800: communication network
900: monitoring server 910: communication unit
920: database 930: driving information storage unit
940: operation information storage unit 950: unmanned aerial vehicle management request unit
960: Cost calculation and billing unit 970: Control unit
1000: financial company server

Claims (4)

무인비행체(100)를 제어하기 위한 제어 신호를 무인비행체 조정기(300)로부터 전송받고, 해상 레이더(700)로부터 선박검출 레이더 신호를 전송받으며, 상기 무인비행체(100)에서 촬영한 영상 데이터와 위치정보를 상기 무인비행체 조정기(300)와 필드양식장 관계자나 무인비행체 운용자의 스마트 기기(500)로 전송하는 통신부(110);
상기 무인비행체(100) 이동방향에 따른 풍향과 풍속 및 현재 고도를 센싱하고, 회전운동상태를 측정하고 기울기를 감지하는 센서부(120);
상기 무인비행체(100)의 비행을 위한 비행부(130);
상기 무인비행체(100)가 이동하면서 주변을 촬영하는 카메라부(140);
상기 카메라부(1400에서 촬영된 영상을 저장하는 영상저장부(160);
상기 무인비행체(100)의 현재 위치를 수신하는 GPS 수신부(170);
상기 무인비행체(100) 이동 중 촬영된 영상에서 선박을 식별하는 불법행위 식별부(180);
미리 입력된 경고 방송이나 경고음을 출력하거나, 상기 무인비행체 조정기(300)에서 전송된 음성이나 경고 방송을 출력하는 경고방송부(190);
상기 통신부(110), 센서부(120). 비행부(130), 카메라부(140), 영상저장부(160), GPS 수신부(170), 불법행위 식별부(180), 경고방송부(190)를 포함하는 상기 무인비행체(100)를 제어하여 상기 통신부(110)를 통해 상기 무인비행체 조정기(300)에서 전송된 제어 데이터에 따라 상기 비행부(130)를 제어하고, 상기 카메라부(140)를 통해 촬영된 영상에서 불법행위 식별부(180)가 선박을 식별하면 이를 통신부(110)를 통해 상기 무인비행체 조정기(300), 필드양식장 관계자나 무인비행체 운용자의 스마트 기기(500)로 전송하고, 상기 무인비행체 조정기(300)에서 전송된 데이터에서 음성신호에 대하여 경고 방송부(190)를 통해 음성을 출력하도록 하며, 상기 GPS 수신부(170)로부터 수시된 위치정보와 상기 무인비행체 조정기(300)에서 설정한 운행영역을 계산하여 미리 설정된 범위를 벗어나는 경우 상기 통신부(110)를 통해 상기 무인비행체 조정기(300)로 이를 통지하며, 배터리 잔량을 계산하여 무인비행체(100)의 비행시간과 복귀장소가 지정된 경우 해당 장소까지의 비행 가능 시간을 계산하여 무인비행체 조정기(300)로 전송하도록 제어하는 제어부(220);를 포함하여 구성됨을 특징으로 하는 필드양식장 불법행위 감시가 가능한 무인비행체.
Receives a control signal for controlling the unmanned aerial vehicle 100 from the unmanned aerial vehicle controller 300, receives a ship detection radar signal from the marine radar 700, and the image data and position information photographed by the unmanned aerial vehicle 100 A communication unit 110 for transmitting the unmanned aerial vehicle adjuster 300 and the field farm official or the unmanned aerial vehicle operator's smart device 500;
A sensor unit 120 for sensing a wind direction, a wind speed, and a current altitude according to the moving direction of the unmanned aerial vehicle 100, measuring a rotational movement state, and detecting a tilt;
Flight unit 130 for the flight of the unmanned aerial vehicle 100;
A camera unit 140 for photographing the surroundings while the unmanned aerial vehicle 100 moves;
An image storage unit 160 for storing an image photographed by the camera unit 1400;
A GPS receiver 170 for receiving a current position of the unmanned aerial vehicle 100;
An illegal activity identification unit 180 for identifying a vessel in an image captured while the unmanned aerial vehicle 100 moves;
A warning broadcast unit 190 for outputting a warning broadcast or warning sound previously input or outputting a voice or warning broadcast transmitted from the drone controller 300;
The communication unit 110, the sensor unit 120. By controlling the unmanned aerial vehicle 100 including a flight unit 130, a camera unit 140, an image storage unit 160, a GPS receiver 170, illegal activity identification unit 180, warning warning unit 190 Control the flight unit 130 according to the control data transmitted from the unmanned vehicle adjuster 300 through the communication unit 110, illegal activity identification unit 180 in the image captured by the camera unit 140 When the identification of the vessel is transmitted to the smart device 500 of the unmanned vehicle adjuster 300, field farm personnel or unmanned aerial vehicle operator through the communication unit 110, the voice from the data transmitted from the unmanned vehicle adjuster 300 The voice signal is output through the warning broadcast unit 190, and the location information received from the GPS receiver 170 and the driving area set by the drone adjuster 300 are calculated to deviate from a preset range. Through the communication unit 110 The drone adjuster 300 notifies this, calculates the remaining battery, calculates the flight time and the return time of the unmanned aerial vehicle 100, and calculates the available flight time to the place to the drone adjuster 300. Control unit 220 to control to control; so that the unmanned aerial vehicle capable of monitoring illegal activities of the field farm.
청구항 1에 기재된 필드양식장 불법행위 감시가 가능한 무인비행체를 이용한 불법행위 감시 방법으로,
상기 무인비행체 전원이 온되고(S100), 상기 무인비행체가 운행되면서(S110), 무인비행체 카메라를 통해 영상정보를 수신하는 단계(S120);
상기 무인비행체 운행 중 이벤트가 발생하였다면 이벤트에 따라 의심선박 정보를 수신한 경우라면 GPS 정보를 이용하여 해당 위치로 이동시키고(S140), 영상을 촬영하고(S150), 상기 이벤트가 무인비행체(100)의 카메라부(140)를 통해 검출된 경우인 경우에는 불법 행위 의심선박을 촬영하며(S150), 상기 촬영한 영상은 무인비행체에서 저장하고, 이를 상기 무인비행체의 통신부를 통해 외부로 전송하는 단계(S160); 및
상기 무인비행체를 조정하는 무인비행체 조정기(300)를 통해 음성을 전송하거나, 상기 무인비행체의 경고 방송부에 미리 설정된 경고 방송 또는 경고음을 출력하는 단계(S170);를 포함하여 이루어지는 것을 특징으로 하는 필드양식장 불법행위 감시가 가능한 무인비행체를 이용한 불법행위 감시 방법.
In the illegal activity monitoring method using an unmanned aerial vehicle capable of monitoring the illegal activity of field farms according to claim 1,
The unmanned aerial vehicle is powered on (S100), while the unmanned aerial vehicle is operated (S110), receiving image information through an unmanned aerial vehicle (S120);
If an event occurs during the operation of the unmanned aerial vehicle, when suspicious vessel information is received according to the event, the GPS information is moved to the corresponding position using the GPS information (S140), the image is taken (S150), and the event is the unmanned aerial vehicle 100. If detected through the camera unit 140 of the illegal acts suspected to shoot the ship (S150), the captured image is stored in the unmanned vehicle, and transmitting it to the outside through the communication unit of the unmanned aerial vehicle ( S160); And
Transmitting a voice through the unmanned aerial vehicle controller 300 for adjusting the unmanned aerial vehicle or outputting a preset warning broadcast or warning sound to the warning broadcasting unit of the unmanned aerial vehicle (S170); Method of monitoring illegal activities using unmanned aerial vehicle capable of monitoring illegal activities.
제2항에 있어서,
상기 무인비행체 운행은 무인비행체 관리자나 필드양식장 관계자에 의한 통상적인 비행이거나, 해경 레이더로부터 필드양식장에 대한 선박정보를 받은 경우이거나, 필드양식장에 설치된 부표로부터 선박 접근 신호를 상기 무인비행체 관리자나 필드양식장 관계자의 스마트기기(스마트폰, 스마트 패드)나 미리 약속된 수신기를 통해 수신한 경우에 수행됨을 특징으로 하는 필드양식장 불법행위 감시가 가능한 무인비행체를 이용한 불법행위 감시 방법.
The method of claim 2,
The operation of the unmanned aerial vehicle is a normal flight by an unmanned aerial vehicle manager or a person in charge of a field farm, or when a vessel radar has received ship information on a field farm, or a vessel access signal is sent from a buoy installed in a field farm. A method for monitoring illegal activities using an unmanned aerial vehicle capable of monitoring illegal activities of field farms, which is performed when received through a related party's smart device (smartphone, smart pad) or a predetermined receiver.
청구항 1에 기재된 필드양식장 불법행위 감시가 가능한 무인비행체의 인공지능 딥러닝을 이용한 불법행위 분석과 인식에 따른 감시 방법으로,
무인비행체는 선박, 침입자, 해산물 망, 침입자의 잠수 및 부표 위로 손이 올라가는 행위를 포함하는 절도행위와 감시하고자 하는 필드양식장의 경계선 및 경계선 부표의 개수를 데이터화하는 단계(S400);
상기 무인비행체는 상기 필드양식장의 이전 이미지를 이용하여 배경영역 모델을 만들고, 원본 이미지에서 제거하여 객체영역과 배경영역을 분리하는 영상확인 단계(S410);
상기 무인비행체는 실시간으로 선반, 침입자, 부표 모양, 크기, 필드양식장 경계선, 위치, 거리, 기울기, 색깔, 문자, 표지판 중 하나 이상을 검출하는 단계(S420);
상기 무인비행체는 순서대로 들어오는 영상 두개의 프레임으로부터 움직임 영역을 추출하여, 사람을 탐지하는 단계(S430)(S440);
상기 무인비행체는 탐지된 침입자 영역에 대하여 거짓 영상을 제거하는 단계(S450);
상기 무인비행체는 수집된 영상에 대하여 딥러닝을 수행하는 단계(S470); 및
상기 무인비행체는 수집된 영상정보에 대하여 상기 딥러닝을 통해 화면의 변화나 영상의 장면 전환 검출법을 이용하여 이상 행위를 검출하고, 관리자 단말기로 전송하는 단계(S480)(S490);를 포함하여 이루어지는 것을 특징으로 하는 필드양식장 불법행위 감시가 가능한 무인비행체의 인공지능 딥러닝을 이용한 불법행위 분석과 인식에 따른 감시 방법.
A surveillance method according to the analysis and recognition of torts using artificial intelligence deep learning of an unmanned aerial vehicle capable of monitoring the illegal activities of field farms according to claim 1,
The unmanned aerial vehicle is configured to data the number of theft and buoy buoys of the field farm to be monitored and stealing activities including a ship, an intruder, a seafood network, an intruder's dive, and an act of raising a hand over a buoy (S400);
The unmanned aerial vehicle generates a background area model by using the previous image of the field farm, and removes the image from the original image to identify the object area and the background area (S410);
The unmanned aerial vehicle detects at least one of a shelf, an intruder, a buoy, a size, a field farm boundary, a location, a distance, a slope, a color, a text, a sign in real time (S420);
The unmanned aerial vehicle detects a person by extracting a motion region from two frames of an incoming image in order (S430) (S440);
The unmanned aerial vehicle removes a false image of the detected intruder region (S450);
The unmanned aerial vehicle performs deep learning on the collected image (S470); And
The unmanned aerial vehicle detects abnormal behavior by using a change of a screen or a scene change detection method of an image through the deep learning on the collected image information, and transmits the abnormal behavior to a manager terminal (S480) (S490). Monitoring method according to the analysis and recognition of illegal activities using artificial intelligence deep learning of unmanned aerial vehicles capable of monitoring illegal activities of field farms.
KR1020180089965A 2018-08-01 2018-08-01 Analysis of illegal activities and monitoring based on recognition using unmanned aerial vehicle and artificial intelligence deep running that can monitor illegal activities in the field farm KR102095555B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180089965A KR102095555B1 (en) 2018-08-01 2018-08-01 Analysis of illegal activities and monitoring based on recognition using unmanned aerial vehicle and artificial intelligence deep running that can monitor illegal activities in the field farm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180089965A KR102095555B1 (en) 2018-08-01 2018-08-01 Analysis of illegal activities and monitoring based on recognition using unmanned aerial vehicle and artificial intelligence deep running that can monitor illegal activities in the field farm

Publications (2)

Publication Number Publication Date
KR20200017601A true KR20200017601A (en) 2020-02-19
KR102095555B1 KR102095555B1 (en) 2020-03-31

Family

ID=69669757

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180089965A KR102095555B1 (en) 2018-08-01 2018-08-01 Analysis of illegal activities and monitoring based on recognition using unmanned aerial vehicle and artificial intelligence deep running that can monitor illegal activities in the field farm

Country Status (1)

Country Link
KR (1) KR102095555B1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111625020A (en) * 2020-05-28 2020-09-04 龙刚 Unmanned aerial vehicle meets and hinders dynamic regulation and control device system based on photoelectric monitoring analysis
CN111824441B (en) * 2020-07-24 2021-10-15 河南交通职业技术学院 Unmanned aerial vehicle radar detection device for roads and bridges
CN114063617A (en) * 2021-11-12 2022-02-18 北京京东乾石科技有限公司 Inspection control method and device, inspection robot and inspection system
WO2022075530A1 (en) * 2020-10-06 2022-04-14 주식회사 스카이시스 Automatic vessel recognition and monitoring system using artificial intelligence image processing, and method for providing same
KR102419614B1 (en) * 2021-07-27 2022-07-11 이지목 Providing method of aquaculture facilities
WO2023096092A1 (en) * 2021-11-25 2023-06-01 한국전자기술연구원 Method and system for detecting abnormal behavior on basis of composite image
CN116703975A (en) * 2023-06-13 2023-09-05 武汉天进科技有限公司 Intelligent target image tracking method for unmanned aerial vehicle
KR102615917B1 (en) * 2023-06-30 2023-12-20 주식회사 베타 Alarm warning System of Boat's approaching Drainage Sluice Gate
KR102635494B1 (en) * 2023-06-30 2024-02-08 주식회사 베타 Alarm warning Method of Boat's approaching Drainage Sluice Gate
CN118097473A (en) * 2024-04-22 2024-05-28 中国科学院西安光学精密机械研究所 Sea surface target sensing method for aircraft

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102371766B1 (en) * 2021-09-29 2022-03-07 (주)네온테크 Data processing device for unmanned aerial vehicle for flight mission big data analysis and AI processing and data processing method for flight mission using the same
KR20230065519A (en) 2021-11-05 2023-05-12 고려대학교 산학협력단 Image processing system and image processing method using split learning

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9139310B1 (en) * 2014-08-08 2015-09-22 SZ DJI Technology Co., Ltd Systems and methods for UAV battery exchange
US9296270B2 (en) * 2008-06-16 2016-03-29 Aurora Flight Sciences Corporation Combined submersible vessel and unmanned aerial vehicle
KR20170013100A (en) 2015-07-27 2017-02-06 유에이치에스(주) Drone for rescue at sea and system for rescue at sea using thereof
KR20170025386A (en) 2015-08-28 2017-03-08 금오공과대학교 산학협력단 fire fighter drone capable of launching grenade-shaped extinguisher
KR20180053877A (en) * 2016-11-14 2018-05-24 송태원 Composition for paint, spray apparatus for vessel, mobile spray apparatus and drone apparatus for dropping paint bomb

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9296270B2 (en) * 2008-06-16 2016-03-29 Aurora Flight Sciences Corporation Combined submersible vessel and unmanned aerial vehicle
US9139310B1 (en) * 2014-08-08 2015-09-22 SZ DJI Technology Co., Ltd Systems and methods for UAV battery exchange
KR20170013100A (en) 2015-07-27 2017-02-06 유에이치에스(주) Drone for rescue at sea and system for rescue at sea using thereof
KR20170025386A (en) 2015-08-28 2017-03-08 금오공과대학교 산학협력단 fire fighter drone capable of launching grenade-shaped extinguisher
KR20180053877A (en) * 2016-11-14 2018-05-24 송태원 Composition for paint, spray apparatus for vessel, mobile spray apparatus and drone apparatus for dropping paint bomb

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111625020A (en) * 2020-05-28 2020-09-04 龙刚 Unmanned aerial vehicle meets and hinders dynamic regulation and control device system based on photoelectric monitoring analysis
CN111625020B (en) * 2020-05-28 2023-11-24 国网福建省电力有限公司莆田供电公司 Unmanned aerial vehicle meets and hinders dynamic regulation and control device system based on photoelectricity monitoring analysis
CN111824441B (en) * 2020-07-24 2021-10-15 河南交通职业技术学院 Unmanned aerial vehicle radar detection device for roads and bridges
WO2022075530A1 (en) * 2020-10-06 2022-04-14 주식회사 스카이시스 Automatic vessel recognition and monitoring system using artificial intelligence image processing, and method for providing same
KR102419614B1 (en) * 2021-07-27 2022-07-11 이지목 Providing method of aquaculture facilities
CN114063617A (en) * 2021-11-12 2022-02-18 北京京东乾石科技有限公司 Inspection control method and device, inspection robot and inspection system
WO2023096092A1 (en) * 2021-11-25 2023-06-01 한국전자기술연구원 Method and system for detecting abnormal behavior on basis of composite image
CN116703975A (en) * 2023-06-13 2023-09-05 武汉天进科技有限公司 Intelligent target image tracking method for unmanned aerial vehicle
CN116703975B (en) * 2023-06-13 2023-12-15 武汉天进科技有限公司 Intelligent target image tracking method for unmanned aerial vehicle
KR102615917B1 (en) * 2023-06-30 2023-12-20 주식회사 베타 Alarm warning System of Boat's approaching Drainage Sluice Gate
KR102635494B1 (en) * 2023-06-30 2024-02-08 주식회사 베타 Alarm warning Method of Boat's approaching Drainage Sluice Gate
CN118097473A (en) * 2024-04-22 2024-05-28 中国科学院西安光学精密机械研究所 Sea surface target sensing method for aircraft

Also Published As

Publication number Publication date
KR102095555B1 (en) 2020-03-31

Similar Documents

Publication Publication Date Title
KR102095555B1 (en) Analysis of illegal activities and monitoring based on recognition using unmanned aerial vehicle and artificial intelligence deep running that can monitor illegal activities in the field farm
US12067762B2 (en) System and method for the early visual detection of forest fires using a deep convolutional neural network
US11900668B2 (en) System and method for identifying an object in water
Liu et al. Intelligent video systems and analytics: A survey
KR102067875B1 (en) Method for rescue using drone and computer readable record-medium on which program for executing method therefor
Qingqing et al. Towards active vision with UAVs in marine search and rescue: Analyzing human detection at variable altitudes
CN106816038A (en) A kind of inland waters abnormal behaviour ship automatic identification system and method
KR20210090572A (en) Device and method for monitoring a berthing
CN110108704A (en) A kind of automatic monitoring and pre-alarming method of cyanobacteria and its automatic monitoring and alarming system
US10895802B1 (en) Deep learning and intelligent sensing systems for port operations
CN110619276A (en) Anomaly and violence detection system and method based on unmanned aerial vehicle mobile monitoring
Molina-Molina et al. Autonomous marine robot based on AI recognition for permanent surveillance in marine protected areas
KR102162065B1 (en) Method for predicting water leisure safety and computer readable record-medium on which program for executing method therefor
Zhao et al. Deep learning-based object detection in maritime unmanned aerial vehicle imagery: Review and experimental comparisons
Zhang et al. Transmission line abnormal target detection based on machine learning yolo v3
Sharma et al. SharkSpotter: Shark detection with drones for human safety and environmental protection
Yasmine et al. Anti-drone systems: An attention based improved YOLOv7 model for a real-time detection and identification of multi-airborne target
Shah et al. Use of Deep Learning Applications for Drone Technology
Lai Real-time aerial detection and reasoning on embedded-UAVs in rural environments
CN111918032B (en) Unmanned ship-based overwater supervision method, system, device and intelligent equipment
CN116704688A (en) Ocean buoy passive defense method and system
US20240153109A1 (en) Image based tracking system
Lygouras et al. A new method to combine detection and tracking algorithms for fast and accurate human localization in UAV-based SAR operations
Mahajan et al. An Introduction to Deep Learning‐Based Object Recognition and Tracking for Enabling Defense Applications
Schöller Camera-based Perception for Autonomous Vessels at Sea

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant