KR20240068826A - Ai-harmful animal monitoring apparatus using drone and eradication attack method using the same - Google Patents

Ai-harmful animal monitoring apparatus using drone and eradication attack method using the same Download PDF

Info

Publication number
KR20240068826A
KR20240068826A KR1020220147062A KR20220147062A KR20240068826A KR 20240068826 A KR20240068826 A KR 20240068826A KR 1020220147062 A KR1020220147062 A KR 1020220147062A KR 20220147062 A KR20220147062 A KR 20220147062A KR 20240068826 A KR20240068826 A KR 20240068826A
Authority
KR
South Korea
Prior art keywords
animal
drone
farm
animals
harmful
Prior art date
Application number
KR1020220147062A
Other languages
Korean (ko)
Inventor
유재천
강지호
고경현
고관영
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Priority to KR1020220147062A priority Critical patent/KR20240068826A/en
Publication of KR20240068826A publication Critical patent/KR20240068826A/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M31/00Hunting appliances
    • A01M31/002Detecting animals in a given area
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M29/00Scaring or repelling devices, e.g. bird-scaring apparatus
    • A01M29/06Scaring or repelling devices, e.g. bird-scaring apparatus using visual means, e.g. scarecrows, moving elements, specific shapes, patterns or the like
    • A01M29/10Scaring or repelling devices, e.g. bird-scaring apparatus using visual means, e.g. scarecrows, moving elements, specific shapes, patterns or the like using light sources, e.g. lasers or flashing lights
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M29/00Scaring or repelling devices, e.g. bird-scaring apparatus
    • A01M29/16Scaring or repelling devices, e.g. bird-scaring apparatus using sound waves
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M29/00Scaring or repelling devices, e.g. bird-scaring apparatus
    • A01M29/16Scaring or repelling devices, e.g. bird-scaring apparatus using sound waves
    • A01M29/18Scaring or repelling devices, e.g. bird-scaring apparatus using sound waves using ultrasonic signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/48Thermography; Techniques using wholly visual means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72415User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M2200/00Kind of animal
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • B64U2101/31UAVs specially adapted for particular uses or applications for imaging, photography or videography for surveillance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Insects & Arthropods (AREA)
  • Pest Control & Pesticides (AREA)
  • Wood Science & Technology (AREA)
  • Zoology (AREA)
  • Environmental Sciences (AREA)
  • Birds (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Mechanical Engineering (AREA)
  • Remote Sensing (AREA)
  • Catching Or Destruction (AREA)

Abstract

본원은 인공지능을 이용하여 농장 주변으로 접근하는 유해동물들을 감지하고 이들을 퇴치하기 위한 장치로, 보다 상세하게는, 드론 열화상 카메라 와 퇴치 공격 수단을 드론상에 구비하고, 모바일 기기상의 인공지능 신경망을 통해 농장 영상과 드론 영상에 노출된 유해동물들을 감지하고, 이후 농장 그리드 맵(Grid map) 상에서 동물들의 위치가 특정화되면 해당 좌표로 드론이 자동 출동하여 해당 장소의 드론 영상을 농장 주인의 모바일 기기에 재전송하고, 농장 주인의 원격 명령에 따라 드론의 퇴치 공격 수단이 활성화되는 드론을 이용한 AI-유해 동물 감시 장치 및 이를 이용한 퇴치 방법에 관한 것이다.Our center uses artificial intelligence to detect harmful animals approaching the farm and exterminate them. More specifically, it is equipped with a drone thermal imaging camera and expulsion attack means on the drone, and uses an artificial intelligence neural network on a mobile device. Through this, harmful animals exposed to farm images and drone images are detected, and when the locations of the animals are specified on the farm grid map, the drone is automatically dispatched to the corresponding coordinates and transmits the drone image of the location to the farm owner's mobile device. It is about an AI-pesticide surveillance device using a drone, which retransmits the drone and activates the drone's extermination attack method according to a remote command from the farm owner, and an extermination method using the same.

Description

드론을 이용한 AI-유해 동물 감시 장치 및 이를 이용한 퇴치 공격 방법 {AI-HARMFUL ANIMAL MONITORING APPARATUS USING DRONE AND ERADICATION ATTACK METHOD USING THE SAME}AI-harmful animal monitoring device using drones and extermination attack method using the same {AI-HARMFUL ANIMAL MONITORING APPARATUS USING DRONE AND ERADICATION ATTACK METHOD USING THE SAME}

본원은 인공지능을 이용하여 농장 주변으로 접근하는 유해 동물들을 감지하고 이들을 퇴치하기 위한 장치로, 보다 상세하게는, 드론 열화상 카메라 및 퇴치 공격 수단을 드론 상에 구비하고, 모바일 기기 상의 인공지능 신경망을 통해 농장 영상과 드론 영상에 노출된 유해 동물들을 감지하고, 이후 농장 그리드 맵(Grid map) 상에서 동물들의 위치가 특정화되면 해당 좌표로 드론이 자동 출동하여 해당 장소의 드론 영상을 농장 주인의 모바일 기기에 재전송하고, 농장 주인의 원격 명령에 따라 드론의 퇴치 공격 수단이 활성화되는 드론을 이용한 AI-유해 동물 감시 장치 및 이를 이용한 퇴치 방법에 관한 것이다.This center uses artificial intelligence to detect harmful animals approaching the farm and exterminate them. More specifically, it is equipped with a drone thermal imaging camera and expulsion attack means on the drone, and an artificial intelligence neural network on a mobile device. Through this, harmful animals exposed to farm images and drone images are detected, and when the locations of the animals are specified on the farm grid map, the drone is automatically dispatched to the corresponding coordinates and transmits the drone image of the location to the farm owner's mobile device. It is about an AI-pesticide surveillance device using a drone, which retransmits the drone and activates the drone's extermination attack method according to a remote command from the farm owner, and an extermination method using the same.

최근 인공지능 기술의 발전에 따라 유해 동물 퇴치 기술에도 인공지능 기술이 적용되며 빠르게 발전할 것으로 기대되고 있다.With the recent development of artificial intelligence technology, artificial intelligence technology is applied to harmful animal extermination technology and is expected to develop rapidly.

공지된 유해 동물 퇴치 기술 중 하나는, 퇴치하고자 하는 동물마다 민감하게 반응하는 고유의 초음파 주파수 대역을 사전에 설정하고 PIR센서(Passive Infrared Sensor)를 이용하여 동물이 감지되면 초음파를 통해 퇴치하는 방법으로, 초음파를 이용하기 때문에 인간에게 피해없이 유해 동물을 퇴치할 수 있다는 장점이 있지만, 유해 동물의 종류를 구분하여 작동하는 방식이 아니기 때문에, 동물의 종류에 따른 대처가 불가능할 뿐만 아니라, 하찮은 동물의 움직임에도 초음파 장치가 민감하게 오작동 되어 그 효율이 많이 떨어지고, 시간이 지날수록 초음파에 대한 동물들의 면역 반응이 증가되어 퇴치 효과가 급격히 감소한다는 단점이 있다. One of the known harmful animal extermination technologies is to set in advance a unique ultrasonic frequency band that responds sensitively to each animal to be exterminated and to exterminate it using ultrasonic waves when the animal is detected using a PIR sensor (Passive Infrared Sensor). Since it uses ultrasonic waves, it has the advantage of being able to exterminate harmful animals without harming humans. However, since it does not operate by distinguishing types of harmful animals, not only is it impossible to respond according to the type of animal, but also the movement of insignificant animals is affected. There is also a disadvantage that the ultrasonic device malfunctions sensitively, greatly reducing its efficiency, and over time, the animal's immune response to ultrasonic waves increases, drastically reducing the repelling effect.

또 다른 공지된 대표적 유해 동물 퇴치 기술은, 카메라를 이용하여 해당 지역의 영상을 수신하여, 사전에 학습시킨 인공지능 신경망을 이용하여 야생동물을 감지하고, 단계별로 조명, 스피커, 기피제를 이용하여 야생동물을 퇴치하는 기술로, 동물의 종류를 구별하여 동물 퇴치를 진행할 수 있는 장점이 있다.Another known representative harmful animal extermination technology is to receive images of the area using a camera, detect wild animals using a pre-trained artificial intelligence neural network, and step by step use lights, speakers, and repellent to protect them from wild animals. As a technology to exterminate animals, it has the advantage of being able to exterminate animals by distinguishing between types of animals.

그러나, 이러한 기술은 날씨가 흐린 거나 어두운 야간에는 동물을 명확히 구별하기 어렵고, 퇴치 과정 중에 동물이 카메라의 사각지대로 이동한 경우 더 이상의 추적이 불가능하며, 동물이 조명, 스피커, 기피제를 무서워하지 않고 스스로 적응한 경우에는 기존 퇴치 방법으로는 더 이상의 퇴치 효과를 기대하기 어렵다는 문제가 존재한다.However, these techniques make it difficult to clearly distinguish between animals when the weather is cloudy or dark at night, and if the animal moves into the camera's blind spot during the extermination process, further tracking is impossible, and the animal is not afraid of lights, speakers, or repellent. In the case of self-adaptation, there is a problem that it is difficult to expect any further eradication effect using existing eradication methods.

또한, 퇴치 장치가 작동하는 범위가 한정적이기 때문에 감시 영역이 확대될수록 퇴치 장치의 수가 급격히 증가하고, 유지 및 보수 비용이 증가하여 가성비가 급격히 떨어진다는 단점이 있다.In addition, because the range in which the extermination device operates is limited, as the surveillance area expands, the number of extermination devices increases rapidly, and maintenance and repair costs increase, which has the disadvantage of drastically reducing cost-effectiveness.

농장에서의 유해 동물에 의한 피해는 전세계적 확산 추세이고 그 중요성이 날로 부각됨에 따라, 정확한 동물 인식 능력과 지속적이고 유효한 유해 동물 퇴치 공격 방법을 갖춘 장치가 절실히 요구되고 있다As damage caused by harmful animals on farms is spreading globally and its importance is increasing day by day, there is an urgent need for devices with accurate animal recognition capabilities and continuous and effective harmful animal extermination attack methods.

본원의 배경이 되는 기술인 대한민국 등록특허 제10-1937597호는 유해동물 퇴치용 드론 및 그 비행 방법에 관한 것이다. 상기 특허에서는 퇴치 수단으로서 음향, 조명 및 타격용 발사 장치를 구비하고 있는 유해 동물 퇴치용 드론을 개시하고 있다.Republic of Korea Patent No. 10-1937597, which is the background technology of this application, relates to a drone for exterminating harmful animals and its flight method. The above patent discloses a drone for repelling harmful animals, which is equipped with sound, lighting, and a striking launcher as a means of repelling.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 농장 및 드론 상에 설치된 열화상 카메라를 통해 영상을 수집하여 주간 뿐만 아니라 야간에서도 유해 동물의 존재여부를 감시하고, 농장 영상 내지 드론 영상을 수신 분석하여 유해 동물의 종류 및 동물의 눈과 몸통을 인식할 수 있는 모바일 기기 상의 동물 인식 인공지능 신경망에 의해 유해 동물을 감지하였을 때, 드론이 자동으로 해당 위치로 출동하여 유해 동물을 추적함과 동시에 퇴치 공격 수단에 의해 퇴치하는, 드론을 이용한 AI-유해 동물 감시 장치를 제공한다.This institute aims to solve the problems of the prior art described above, and collects images through thermal imaging cameras installed on farms and drones to monitor the presence of harmful animals not only during the day but also at night, and receives farm or drone images. When a harmful animal is detected by an animal recognition artificial intelligence neural network on a mobile device that can analyze and recognize the type of harmful animal and the animal's eyes and body, the drone automatically dispatches to the location and tracks the harmful animal at the same time. Provides an AI-pesticide monitoring device using drones that exterminates by extermination attack means.

다만, 본원에서 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical challenges sought to be achieved by the embodiments herein are not limited to the technical challenges described above, and other technical challenges may exist.

본원의 일 구현예에 따르면, 열화상 카메라는 열화상 영상과 일반 영상 둘 다를 수집할 수 있으며, 실시간으로 해당 영상을 농장 관리자의 모바일 기기에 송신하여 농장 관리자가 이를 확인할 수 있으나, 이에 제한되는 것은 아니다. According to one implementation of the present application, a thermal imaging camera can collect both thermal imaging images and general images, and transmits the images in real time to the farm manager's mobile device so that the farm manager can check them, but is not limited to this. no.

본원의 일 구현예에 따르면, 열화상 카메라는 생물이 발생하는 적외선 파장의 빛을 이용하여 감지하기 때문에 일반 영상과 열화상 영상을 함께 제공하는 열화상 카메라를 이용하면 주·야간으로 유해 동물을 쉽게 인식할 수 있다.According to one embodiment of the present application, since a thermal imaging camera detects living things using infrared wavelength light that occurs, harmful animals can be easily detected day and night by using a thermal imaging camera that provides both general images and thermal images. It can be recognized.

본원의 일 구현예에 따르면, 농장 열화상 카메라는 유해 동물을 퇴치하고자 하는 소정의 영역에 배치되어 유해동물 존재여부를 감시하고, 농장의 위치를 특정화할 수 있는 농장 그리드 맵을 이용하여 유해동물이 나타난 위치를 판단할 수 있도록 한 대 이상의 카메라를 각기 다른 장소에 설치할 수 있으나, 이에 제한되는 것은 아니다.According to one embodiment of the present application, a farm thermal imaging camera is placed in a predetermined area where harmful animals are to be exterminated to monitor the presence of harmful animals, and uses a farm grid map that can specify the location of the farm to detect harmful animals. One or more cameras may be installed in different locations to determine the indicated location, but are not limited to this.

본원의 일 구현예에 따르면, 농장 열화상 카메라 없이 정기적으로 순찰하는 드론에 의해 농장에 나타난 유해 동물 존재여부를 감시하고, 농장의 위치를 특정화할 수 있는 농장 그리드 맵을 이용하여 유해 동물이 나타난 위치를 판단할 수 있도록 할 수 있으나, 이에 제한되는 것은 아니다.According to one embodiment of the present application, the presence of harmful animals appearing on the farm is monitored by a drone that regularly patrols without a farm thermal imaging camera, and the location of the harmful animals appears using a farm grid map that can specify the location of the farm. It may be possible to determine, but is not limited to this.

본원의 일 구현예에 따르면, 농장 관리자의 모바일 기기는 모바일 기기 상에서 실시간으로 열화상 카메라의 영상을 원격으로 확인하거나 드론의 퇴치 공격 수단을 활성화하기 위한 모바일 애플리케이션을 포함할 수 있다.According to one implementation of the present application, the farm manager's mobile device may include a mobile application for remotely checking the image of the thermal imaging camera in real time on the mobile device or activating a drone extermination attack method.

본원의 일 구현예에 따르면, 동물 인식 인공지능 신경망은 열화상 카메라로부터 생성된 농장 영상 내지 드론 영상을 입력으로 받으며, 사전에 학습된 인공지능 신경망을 통해, 유해 동물이 감지된 영역에 대해 바운딩 박스(Bounding Box)를 제공하는 동물 영역 감지부, 및 사전에 학습된 인공지능 신경망을 통해, 상기 유해 동물에 대해 픽셀별 라벨링된 이미지를 제공하는 동물 시맨틱 세그멘테이션(Semantic Segmentation)부를 포함할 수 있다.According to an implementation example of the present application, the animal recognition artificial intelligence neural network receives farm images or drone images generated from a thermal imaging camera as input, and creates a bounding box for the area where harmful animals are detected through a pre-trained artificial intelligence neural network. It may include an animal area detection unit that provides a bounding box, and an animal semantic segmentation unit that provides labeled images for each pixel of the harmful animals through a pre-trained artificial intelligence neural network.

상기 동물 시맨틱 세그멘테이션부는 동물의 종류, 동물의 눈과 몸통에 따라 서로 달리 구분하여 픽셀 단위로 라벨링(labeling)을 수행하는 것이 선호된다.It is preferred that the animal semantic segmentation unit classifies animals differently depending on the type of animal and the eyes and body of the animal, and performs labeling on a pixel basis.

본원의 일 구현예에 따르면, 동물 인식 인공지능 신경망, 동물 판단부, 동물 위치 좌표 계산부 및 눈 위치 좌표 판단부를 드론 내지 모바일 애플리케이션 상에 설치 가능하며, 상기 드론 내지 모바일 애플리케이션은 드론 열화상 카메라로부터의 영상을 분석하여 동물 종류, 위치, 동물의 눈과 몸통을 파악하여 적절한 퇴치 공격 수단을 활성화하여 유해 동물을 공격할 수 있다.According to an embodiment of the present application, an animal recognition artificial intelligence neural network, an animal determination unit, an animal position coordinate calculation unit, and an eye position coordinate determination unit can be installed on a drone or mobile application, and the drone or mobile application can be installed on a drone or mobile application from a drone thermal imaging camera. By analyzing the video, you can identify the animal type, location, eyes and body of the animal, and activate appropriate expulsion attack methods to attack harmful animals.

본원의 일 구현예에 따르면, 원격 서버는 동물 인식 인공지능 신경망, 동물 판단부, 동물 위치 좌표 계산부 및 눈 위치 좌표 판단부를 구비하고, 원격 서버는 드론 영상을 원격 수신하여 동물의 종류, 위치, 동물의 눈과 몸통을 파악하여 이에 따른 드론 제어 명령을 드론에 무선 송출하여 드론의 퇴치공격수단을 제어할 수 있다.According to one implementation of the present application, the remote server includes an animal recognition artificial intelligence neural network, an animal determination unit, an animal position coordinate calculation unit, and an eye position coordinate determination unit, and the remote server remotely receives a drone image to determine the type, location, and information about the animal. By identifying the eyes and body of the animal and transmitting the corresponding drone control commands to the drone wirelessly, the drone's means of extermination and attack can be controlled.

본원의 일 구현예에 따르면, 동물 영역 감지부는 인공지능 신경망인 YOLO (You Only Look Once)를 사용할 수 있으나, 이에 제한되는 것은 아니다.According to one embodiment of the present application, the animal area detection unit may use YOLO (You Only Look Once), an artificial intelligence neural network, but is not limited thereto.

본원의 일 구현예에 따르면, 드론의 퇴치 공격 수단은 소리 내지 초음파를 동반한 위협 비행, 동물 눈을 겨냥한 레이저 공격을 포함하는 것일 수 있으나, 이에 제한되는 것은 아니다.According to one embodiment of the present application, the drone's extermination attack means may include, but is not limited to, a threatening flight accompanied by sound or ultrasonic waves and a laser attack aimed at the animal's eyes.

본원의 일 구현예에 따르면, 드론은 유해 동물을 추적 비행하면서 유해 동물 종류에 맞는 초음파 주파수 대역으로 동물을 공격하기 위한 초음파 스피커를 구비할 수 있다. According to one embodiment of the present application, a drone may be equipped with an ultrasonic speaker for attacking the animal with an ultrasonic frequency band appropriate for the type of harmful animal while flying in pursuit of the harmful animal.

본원의 일 구현예에 따르면, 농장 관리자는 드론 영상을 모바일 기기로 확인한 후 레이저, 초음파, 소리, 위협비행으로 구성된 퇴치 공격 수단 중 선택된 어느 하나 이상의 공격 수단을 택하여 드론에게 원격으로 공격 명령을 지시하는 모바일 애플리케이션을 구비할 수 있다.According to an embodiment of the present application, the farm manager checks the drone image with a mobile device, selects one or more attack methods selected from among the extermination attack methods consisting of laser, ultrasonic waves, sound, and threat flight, and remotely instructs the drone to attack. A mobile application can be provided.

상기 소리는 번개소리, 사냥개 짖는 소리, 호랑이 포효(roar), 총 소리, 사람 말하는 소리를 포함할 수 있으나, 이에 제한되는 것은 아니다.The sounds may include, but are not limited to, the sound of lightning, the sound of a hunting dog barking, the roar of a tiger, the sound of a gun, or the sound of a person speaking.

본원의 일 구현예에 따르면, 농장 열화상 카메라 및 드론 열화상 카메라가 촬영하는 모든 영상은 농장 관리자의 모바일 기기에 의해 수신 가능하며, 농장 관리자는 이러한 영상을 보면서 원격 제어 명령을 통해 드론의 퇴치 공격 수단을 원격 조정하여 사용할 수 있다.According to one implementation of the present application, all images captured by the farm thermal imaging camera and the drone thermal imaging camera can be received by the farm manager's mobile device, and the farm manager watches these images and sends a remote control command to attack the drone. The means can be remotely controlled and used.

본원의 일 구현예에 따르면, 모바일 애플리케이션을 이용하여 농장 관리자가 퇴치 공격 수단을 활성화시킨 경우, 드론은 농장 관리자로부터의 원격 제어 명령 없이, 사전에 활성화된 드론 상의 퇴치 공격 수단을 사용하여 유해 동물을 스스로 퇴치할 수 있다.According to one implementation of the present application, when the farm manager activates the extermination attack means using a mobile application, the drone kills harmful animals using the pre-activated expulsion attack means on the drone without a remote control command from the farm manager. You can get rid of it yourself.

본원의 일 구현예에 따르면, 모바일 기기로 전송된 영상은 일정 기간 동안 메모리에 저장할 수 있고, 재생 속도를 조절하거나 되감기를 할 수 있으며, 각각의 영상에 해당 카메라의 이름, 날짜 및 시간이 표시되어 관리 보관되는 것이 선호된다.According to one implementation of the present application, images transmitted to a mobile device can be stored in memory for a certain period of time, playback speed can be adjusted or rewinded, and the name, date, and time of the camera are displayed on each image. Controlled storage is preferred.

본원의 일 구현예에 따르면, 모바일 애플리케이션의 제어부는 농장 열화상 카메라 및 드론 열화상 카메라가 유해 동물을 감지하였을 때, 동물 퇴치를 위한 일련의 드론 제어 명령을 드론에게 송신하는 드론 제어 명령 송신부를 포함할 수 있다. According to an implementation example of the present application, the control unit of the mobile application includes a drone control command transmitter that transmits a series of drone control commands to exterminate animals to the drone when the farm thermal imaging camera and the drone thermal imaging camera detect harmful animals. can do.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described means of solving the problem are merely illustrative and should not be construed as intended to limit the present application. In addition to the exemplary embodiments described above, additional embodiments may be present in the drawings and detailed description of the invention.

전술한 본원의 과제 해결 수단에 의하면, 본원에 따른 드론을 이용한 AI-유해 동물 감지 장치는, 동물 인식 인공지능 신경망을 통해 열화상 이미지로 유해 동물을 주야간 항시 감시가 가능하며, 퇴치 공격 수단을 탑재한 드론을 이용해 유해 동물의 추적과 퇴치 공격이 자동으로 이루어질 수 있어 농장 주인에게 유해 동물 감시 및 퇴치에 대한 편의를 제공한다.According to the above-described means of solving the problem of this institute, the AI-harmful animal detection device using a drone according to this institute is capable of monitoring harmful animals at all times, day and night, using thermal imaging images through an animal recognition artificial intelligence neural network, and is equipped with expulsion attack means. Tracking and extermination of harmful animals can be carried out automatically using a single drone, providing farm owners with the convenience of monitoring and eradicating harmful animals.

또한, 상기 동물 인식 인공지능 신경망은 드론 내지 모바일 기기 상에 설치될 수 있으며, 이 경우 드론 영상을 분석하여 유해 동물을 실시간 추적 비행하는 동안 유해 동물의 종류 및 동물의 눈과 몸통을 인식할 수 있어, 추적 과정 동안 유해 동물의 신체 부위 중 가장 취약한 눈을 표적으로 삼아 레이저에 의해 직접 공격함으로써 퇴치 효과를 극대화할 수 있다.In addition, the animal recognition artificial intelligence neural network can be installed on a drone or mobile device, and in this case, it can recognize the type of harmful animal and the animal's eyes and body while tracking harmful animals in real time by analyzing drone images. , During the tracking process, the most vulnerable part of the harmful animal's body, the eye, can be targeted and directly attacked with a laser, thereby maximizing the extermination effect.

또한, 퇴치 공격 수단으로 레이저 뿐 아니라 번개소리, 호랑이 포효(roar), 총 소리, 사람 말하는 소리와 같은 저수준의 공격을 포함함으로서 유해 동물에 심각한 위해를 가하지 않고 퇴치할 수 있는 장점이 있다.In addition, extermination attacks include not only lasers but also low-level attacks such as lightning sounds, tiger roars, gunshots, and human speaking sounds, which has the advantage of being able to exterminate harmful animals without causing serious harm.

또한, 상기 동물 인식 인공지능 신경망에 의해 구분된 유해 동물의 종류에 맞는 초음파 주파수 대역을 자동 선택하여 동물을 공격하기 때문에 초음파에 대한 유해 동물의 면역 반응을 줄일 수 있다는 장점이 있다.In addition, since the ultrasonic frequency band appropriate for the type of harmful animal classified by the animal recognition artificial intelligence neural network is automatically selected to attack the animal, it has the advantage of reducing the immune response of harmful animals to ultrasonic waves.

또한, 퇴치 공격 수단을 드론 상에 탑재하여, 유해 동물을 쫓아가면서, 소리 내지 초음파를 동반한 위협 비행, 동물 눈을 겨냥한 레이저 공격을 수행할 수 있으며, 이들 퇴치 공격 수단을 단계별로 다양하게 전개하면서 퇴치 작전을 진행할 수 있다In addition, expulsion attack means can be mounted on the drone to chase harmful animals, perform threatening flights accompanied by sound or ultrasonic waves, and laser attacks aimed at the animal's eyes. These expulsion attack means can be deployed in various stages by stage. Eradication operation can be carried out

또한, 농장 열화상 카메라 및 드론 열화상 카메라가 촬영하는 모든 영상은 농장 관리자의 모바일 기기에 의해 수신 가능하며, 농장 관리자는 원격 제어 명령을 통해 드론의 퇴치 공격 수단을 활성화하거나 원격 조정하여 사용할 수 있다.In addition, all images captured by farm thermal imaging cameras and drone thermal imaging cameras can be received by the farm manager's mobile device, and the farm manager can activate or remotely control the drone's extermination attack means through remote control commands. .

다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effects that can be obtained herein are not limited to the effects described above, and other effects may exist.

도 1 은 본원의 일 구현예에 따른 드론을 이용한 AI-유해 동물 감시 장치의 개념도이다.
도 2 는 본원의 일 구현예에 따른 모바일 애플리케이션의 개념도이다.
도 3a 는 본원에 따른 동물 판단부 및 눈 위치 좌표 판단부로 구성된 동물 인식 인공지능 신경망의 동작 예를 보이는 일 실시예이다.
도 3b 는 본원에 따른 동물의 눈 위치 좌표 판단부의 일 실시예이다.
도 3c 는 본원에 따른 드론에 의한 퇴치 공격 수단의 여러 실시예이다.
Figure 1 is a conceptual diagram of an AI-harmful animal monitoring device using a drone according to an implementation example of the present application.
Figure 2 is a conceptual diagram of a mobile application according to an implementation example of the present application.
Figure 3a is an embodiment showing an example of the operation of an animal recognition artificial intelligence neural network composed of an animal determination unit and an eye position coordinate determination unit according to the present application.
Figure 3b is an example of an animal's eye position coordinate determination unit according to the present application.
Figure 3c shows several embodiments of a drone-based repelling attack means according to the present application.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present application will be described in detail so that those skilled in the art can easily implement them. However, the present application may be implemented in various different forms and is not limited to the embodiments described herein. In order to clearly explain the present application in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다.Throughout this specification, when a part is said to be “connected” to another part, this includes not only the case where it is “directly connected,” but also the case where it is “electrically connected” with another element in between. do.

본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when a member is said to be located “on”, “above”, “at the top”, “below”, “at the bottom”, or “at the bottom” of another member, this means that a member is located on another member. This includes not only cases where they are in contact, but also cases where another member exists between two members.

본원 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification of the present application, when a part "includes" a certain element, this means that it may further include other elements rather than excluding other elements, unless specifically stated to the contrary.

본 명세서에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본원의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 또한, 본원 명세서 전체에서, "~ 하는 단계" 또는 "~의 단계"는 "~를 위한 단계"를 의미하지 않는다.As used herein, the terms "about", "substantially", etc. are used to mean at or close to the numerical value when manufacturing and material tolerances inherent in the stated meaning are presented, and to aid understanding of the present application. It is used to prevent unscrupulous infringers from unfairly exploiting disclosures in which precise or absolute figures are mentioned. Additionally, throughout the specification herein, “a step of” or “a step of” does not mean “a step for.”

본원 명세서 전체에서, 마쿠시 형식의 표현에 포함된 "이들의 조합"의 용어는 마쿠시 형식의 표현에 기재된 구성 요소들로 이루어진 군에서 선택되는 하나 이상의 혼합 또는 조합을 의미하는 것으로서, 상기 구성 요소들로 이루어진 군에서 선택되는 하나 이상을 포함하는 것을 의미한다.Throughout this specification, the term "combination thereof" included in the Markushi format expression means a mixture or combination of one or more components selected from the group consisting of the components described in the Markushi format expression, It means including one or more selected from the group consisting of.

본원 명세서 전체에서, "A 및/또는 B" 의 기재는, "A 또는 B, 또는, A 및 B" 를 의미한다.Throughout this specification, description of “A and/or B” means “A or B, or A and B.”

본원 명세서 전체에서, 유해 동물은 야생 동물뿐만 아니라 소정의 지정된 구역 내에 존재하는 사람, 조류 등 모든 살아서 움직이는 동물들을 포함할 수 있다.Throughout the specification of this application, harmful animals may include not only wild animals but also all living and moving animals, such as humans and birds, that exist within a predetermined designated area.

본원 명세서 전체에서, 열화상 카메라는 농장 열화상 카메라와 드론 열화상 카메라를 통칭한다.Throughout this specification, thermal imaging cameras collectively refer to farm thermal imaging cameras and drone thermal imaging cameras.

본 발명의 무선 송수신 연결은Wifi혹은 사물 인터넷(IoT) 연결에 의해 이루어지는 것이 선호된다.The wireless transmission/reception connection of the present invention is preferably made by Wifi or Internet of Things (IoT) connection.

본원 명세서 전체에서 농장 그리드 맵 (Grid map)은 한 대 이상의 농장 카메라 내지 정찰 드론에 의해 생성할 수 있는 농장내의 위치 정보를 좌표 형태로 표기한 지도를 뜻한다.Throughout the specification herein, a farm grid map refers to a map that displays location information within a farm in the form of coordinates that can be generated by one or more farm cameras or reconnaissance drones.

본원 명세서 전체에서, 농장 주인은 농장 관리자와 혼용된다.Throughout this specification, farm owner is used interchangeably with farm manager.

본원 명세서 전체에서, 농장 영상은 농장내에 설치된 복수개의 농장 열화상 카메라로부터 수집된 영상을 의미한다.Throughout the specification herein, farm images refer to images collected from a plurality of farm thermal imaging cameras installed within the farm.

본원 명세서 전체에서, 드론 영상은 드론 상에 탑재된 드론 열화상 카메라로부터 수집된 영상을 의미한다.Throughout this specification, drone image refers to images collected from a drone thermal imaging camera mounted on a drone.

이하, 본원의 드론을 이용한 AI-유해 동물 감시 장치 및 이를 이용한 퇴치 공격 방법 에 대하여 구현예 및 실시예와 도면을 참조하여 구체적으로 설명하도록 한다. 그러나, 본원이 이러한 구현예 및 실시예와 도면에 제한되는 것은 아니다.Hereinafter, the AI-harmful animal monitoring device using a drone and the extermination attack method using the same will be described in detail with reference to implementation examples, examples, and drawings. However, the present application is not limited to these embodiments, examples, and drawings.

도 1 은 본원의 일 구현예에 따른 드론을 이용한 AI-유해 동물 감시 장치의 개념도이다.Figure 1 is a conceptual diagram of an AI-harmful animal monitoring device using a drone according to an implementation example of the present application.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 제 1 측면은 모바일 기기(40) 상에 설치된 모바일 애플리케이션(70) 및 드론(30)을 포함하는 드론을 이용한 AI-유해 동물 감시 장치에 있어서, 상기 드론(30)은 공중 비행동안 동물을 촬영하기 위한 드론 열화상 카메라(31) 및 동물을 퇴치 공격하기 위한 퇴치 공격 수단(32)을 포함하고, 상기 모바일 애플리케이션(70)은 상기 드론 열화상 카메라(31)에 노출된 동물의 눈과 몸통을 감지하기 위한 동물 인식 인공지능 신경망(10) 및 상기 모바일 기기 상의 터치 스크린을 통해 상기 퇴치 공격 수단을 원격으로 선택하여 활성화할 수 있는 공격 수단 선택 메뉴(70c)를 포함하는 것인, 드론을 이용한 AI-유해 동물 감시 장치를 제공한다.As a technical means for achieving the above-mentioned technical problem, the first aspect of the present application is an AI-pest surveillance device using a drone including a mobile application 70 and a drone 30 installed on a mobile device 40. , the drone 30 includes a drone thermal imaging camera 31 for photographing animals during aerial flight and a repelling attack means 32 for repelling and attacking animals, and the mobile application 70 captures the drone thermal imaging. An animal recognition artificial intelligence neural network 10 for detecting the eyes and body of an animal exposed to the camera 31, and an attack means selection menu that can remotely select and activate the expulsion attack means through a touch screen on the mobile device. Provides an AI-harmful animal monitoring device using a drone, including (70c).

상기 드론(30)의 퇴치 공격 수단(32)은 레이저 발생기(32a), 초음파 스피커(32b) 및 음향 스피커(32c)를 포함하며, 상기 퇴치 공격 수단(32)을 이용한 퇴치 공격 방법에는 초음파 스피커(32b)의 초음파 내지 음향 스피커(32c)의 소리를 동반한 위협 비행; 및 레이저 발생기(32a)를 이용해 동물의 눈을 겨냥한 레이저 공격을 포함할 수 있으며, 모바일 애플리케이션(70) 상에서 농장 주인의 원격 명령에 따라 상기 퇴치 공격 수단을 활성화시킬 수 있다.The repelling attack means 32 of the drone 30 includes a laser generator 32a, an ultrasonic speaker 32b, and an acoustic speaker 32c, and the repelling attack method using the repelling attack means 32 includes an ultrasonic speaker ( Threat flight accompanied by the ultrasonic waves of 32b) or the sound of the acoustic speaker 32c; and a laser attack aimed at the animal's eyes using the laser generator 32a, and the repellent attack means can be activated according to a remote command from the farm owner on the mobile application 70.

상기 모바일 애플리케이션(70)은 모바일 기기(40)상의 터치 스크린을 통해 퇴치 공격 수단을 원격으로 선택하여 활성화할 수 있는 공격 수단 선택 메뉴(70c)과 소리 종류를 택하기 위한 소리 선택 메뉴(70d)을 포함할 수 있다.The mobile application 70 includes an attack means selection menu 70c that can be activated by remotely selecting an expulsion attack method through a touch screen on the mobile device 40 and a sound selection menu 70d for selecting a sound type. It can be included.

상기 공격 수단 선택 메뉴(70c)은 위협비행, 초음파, 소리, 레이저를 포함하는 공격수단을 선택하여 활성화 시킬수 있는 버튼들을 포함하는 것이 선호된다. The attack method selection menu 70c preferably includes buttons for selecting and activating attack methods including threat flight, ultrasound, sound, and laser.

상기 소리 선택 메뉴(70d)은 호랑이 포효, 사람들의 대화, 개 짖는 소리, 자동차 경적, 총 소리 중 어느 하나 이상의 소리를 선택할 수 있는 버튼들을 포함하는 것이 선호된다. The sound selection menu 70d preferably includes buttons for selecting one or more sounds among a tiger roar, people talking, a dog barking, a car horn, and a gun sound.

또한, 상기 모바일 애플리케이션(70)은 농장 관리자가 모바일 애플리케이션(70)을 통해 드론 영상 화면(70a)과 레이저 포인팅 화면(70b)을 실시간 확인하면서, 모바일 애플리케이션(70)상의 레이저 발사 버튼(70e)을 누를 수 있다. 레이저 발사 버튼(70e)을 누룰때 마다 레이저 발생기(32a)로부터 레이저가 한발씩 발사되는 것이 선호된다. 이 경우 레이저 포인팅 화면(70b)에 의해 레이저가 동물의 눈을 정확히 향하고 있는지 확인한 후에, 레이저 버튼을 누르므로 레이저 공격 명중률을 높일 수 있다.In addition, the mobile application 70 allows the farm manager to check the drone video screen 70a and the laser pointing screen 70b in real time through the mobile application 70 and press the laser firing button 70e on the mobile application 70. You can press it. It is preferred that each time the laser firing button 70e is pressed, one laser is fired from the laser generator 32a. In this case, the accuracy of the laser attack can be increased by pressing the laser button after confirming that the laser is accurately aimed at the animal's eyes using the laser pointing screen 70b.

상기 드론 영상 화면(70a)은 드론(30)에 탑재된 드론 열화상 카메라(31)에 의해 촬영된 실시간 영상을 보여주는 화면으로 모바일 애플리케이션(70)과 연동하여 구동된다.The drone image screen 70a is a screen that shows real-time images captured by the drone thermal imaging camera 31 mounted on the drone 30 and is operated in conjunction with the mobile application 70.

상기 레이저 포인팅 화면(70b)은 드론(30)에 탑재된 드론 열화상 카메라(31)에 의해 촬영된 실시간 영상 위에 레이저 빔이 현재 향하고 있는 위치를 중첩하여 보여주는 화면으로 모바일 애플리케이션(70)과 연동하여 구동된다.The laser pointing screen 70b is a screen that displays the current location of the laser beam over the real-time image captured by the drone thermal imaging camera 31 mounted on the drone 30, and is linked with the mobile application 70. It runs.

또한, 상기 모바일 애플리케이션(70)에는 농장 관리자가 드론(30)의 비행을 원격으로 조정하거나 퇴치 공격 수단(32)을 원격 제어하기 위한 원격 공격 모드인지, 드론(30) 스스로 드론 상의 퇴치 공격 수단을 사용하여 유해 동물을 퇴치하는 자동 공격 모드인지를 선택하는 원격 공격 모드 버튼(70f)과 자동 공격 모드 버튼(70g)를 포함할 수 있다.In addition, the mobile application 70 has a remote attack mode for the farm manager to remotely control the flight of the drone 30 or remotely control the extermination attack means 32, or the drone 30 can use the expulsion attack means on the drone itself. It may include a remote attack mode button (70f) and an automatic attack mode button (70g) for selecting whether to use the automatic attack mode to exterminate harmful animals.

자동 공격 모드인 경우, 드론(30)은 농장관리자가 모바일 애플리케이션(70)을 통해 미리 활성화시킨 퇴치 공격 수단(32)과 소리를 이용하여 유해 동물을 퇴치하는 것이 선호된다.In the case of the automatic attack mode, it is preferred that the drone 30 uses sound and the repellent attack means 32 activated in advance by the farm manager through the mobile application 70 to exterminate harmful animals.

반면, 원격 공격 모드인 경우, 드론(30)은 농장관리자가 원격 공격 모드 버튼을 누를때 마다 모바일 애플리케이션(70)을 통해 미리 활성화시킨 퇴치 공격 수단(32) 내지 소리를 1회 실행하여 유해 동물을 퇴치하는 것이 선호되며, 이 경우 자동 공격 모드는 자동 해지되는 것이 선호된다.On the other hand, in the case of remote attack mode, the drone 30 executes the extermination attack means 32 or sound activated in advance through the mobile application 70 once every time the farm manager presses the remote attack mode button to kill harmful animals. It is preferred to exterminate, in which case the automatic attack mode is preferably canceled automatically.

또한, 농장 열화상 카메라(2)에 의해 얻어진 농장 영상은 무선 송신부(3)에 의해 농장 관리자의 모바일 기기(40)에 제공될 수 있으며, 농장 관리자는 모바일 애플리케이션(70)을 통해 실시간으로 농장 영상과 드론 영상을 확인할 수 있다.In addition, the farm image obtained by the farm thermal imaging camera 2 can be provided to the farm manager's mobile device 40 by the wireless transmitter 3, and the farm manager can view the farm image in real time through the mobile application 70. You can check the drone video.

드론(30)과 모바일 기기(40) 간의 통신 연결은 와이파이 내지 무선 인터넷에 의해 이루어지는 것이 선호된다.The communication connection between the drone 30 and the mobile device 40 is preferably made via Wi-Fi or wireless Internet.

모바일 애플리케이션(70)은 농장 열화상 카메라(2) 및 드론 열화상 카메라(31)가 유해 동물을 감지하였을 때, 동물들의 위치 좌표로 드론(30)이 출동하여 퇴치 공격을 수행하도록 드론 제어 명령을 드론(30)에 송신한다.When the farm thermal imaging camera 2 and the drone thermal imaging camera 31 detect harmful animals, the mobile application 70 issues a drone control command so that the drone 30 is dispatched to the location coordinates of the animals and performs an extermination attack. It is transmitted to the drone (30).

상기 드론 제어 명령에는 퇴치 공격 수단(32) 선택 및 퇴치 공격 수단(32) 활성화, 드론 출동 명령, 및 실시간 원격 공격 명령 등을 포함할 수 있다. 예컨대, 농장 관리자는 실시간 드론 영상(70a) 내지 레이저 포인팅 화면(70b)을 보면서 실시간 원격 공격 명령을 통해 드론(30) 상의 퇴치 공격 수단(32)을 원격 조정하여 유해 동물을 공격할 수 있다.The drone control command may include selecting the expulsion attack means 32, activating the expulsion attack means 32, a drone dispatch command, and a real-time remote attack command. For example, a farm manager can attack harmful animals by remotely controlling the extermination attack means 32 on the drone 30 through a real-time remote attack command while watching the real-time drone image 70a or the laser pointing screen 70b.

또한, 상기 모바일 애플리케이션(70)은 실시간으로 농장 영상과 드론 영상을 확인할 수 있고, 동물의 위치 좌표, 동물의 종류, 눈 위치 좌표, 동물의 개체 수, 동물의 출현 시각, 및 눈 위치 좌표 정보 등을 산정할 수 있다.In addition, the mobile application 70 can check farm images and drone images in real time, and includes animal location coordinates, animal type, eye location coordinates, number of animals, animal appearance time, and eye location coordinate information, etc. can be calculated.

도 2 는 본원의 일 구현예에 따른 모바일 애플리케이션(70)의 개념도이다.Figure 2 is a conceptual diagram of a mobile application 70 according to an implementation example of the present application.

도 2 를 참조하면, 상기 모바일 애플리케이션(70)은 농장 열화상 카메라(2) 내지 드론 열화상 카메라(31)에 노출된 동물의 눈과 몸통을 감지하기 위한 동물 인식 인공지능 신경망(10); 농장 그리드 맵(52)상에서 감지된 동물들의 위치 좌표를 특정화시키기 위한 동물 위치 좌표 계산부(54); 및 제어부(20)를 포함한다.Referring to FIG. 2, the mobile application 70 includes an animal recognition artificial intelligence neural network 10 for detecting the eyes and body of an animal exposed to a farm thermal imaging camera 2 or a drone thermal imaging camera 31; an animal location coordinate calculation unit 54 for specifying the location coordinates of animals detected on the farm grid map 52; and a control unit 20.

또한, 상기 제어부(20)는 상기 동물 인식 인공지능 신경망(10)의 결과로부터 동물의 종류 및 동물의 개체 수 등을 판별하는 동물 판단부(22); 상기 동물 인식 인공지능 신경망(10)의 결과로부터 동물의 눈 위치를 판별하는 눈위치 좌표 판단부(13); 및 동물들의 위치 좌표로 드론(30)이 출동하도록 하거나 드론(30)을 원격 조정하여 공격을 수행하거나 퇴치 공격수단(32)을 활성화시키기 위한 드론 제어 명령을 드론(30)에 무선 전송하는 드론 제어 명령 송신부(23)를 포함한다.In addition, the control unit 20 includes an animal determination unit 22 that determines the type of animal and the number of animals from the results of the animal recognition artificial intelligence neural network 10; an eye position coordinate determination unit (13) that determines the eye position of the animal from the results of the animal recognition artificial intelligence neural network (10); And drone control that wirelessly transmits a drone control command to the drone 30 to dispatch the drone 30 to the location coordinates of the animals, remotely control the drone 30 to perform an attack, or activate the expulsion attack means 32. It includes a command transmission unit 23.

상기 모바일 애플리케이션(70)은 실시간으로 농장 영상과 드론 영상을 확인할 수 있고, 상기 동물 인식 인공지능 신경망(10), 동물 위치 좌표 계산부(54) 및 제어부(20)에 의해 동물의 위치 좌표, 동물의 종류, 눈 위치 좌표, 동물의 개체 수를 산정하거나, 드론 제어 명령을 드론(30)에 무선으로 전송할 수 있다.The mobile application 70 can check farm images and drone images in real time, and determines the location coordinates of the animal by the animal recognition artificial intelligence neural network 10, the animal location coordinate calculation unit 54, and the control unit 20. The type, eye position coordinates, and number of animals can be calculated, or a drone control command can be wirelessly transmitted to the drone 30.

상기 모바일 애플리케이션(70)은 원격 공격 모드 시 농장 관리자의 선택에 따라 레이저, 초음파, 소리, 위협비행으로 구성된 퇴치 공격 수단(32) 중 선택된 어느 하나 이상의 공격 수단을 택하여 드론(30)에게 원격으로 공격 명령을 지시할 수 있다.In the remote attack mode, the mobile application 70 selects one or more attack means selected from among the expulsion attack means 32 consisting of laser, ultrasonic waves, sound, and threat flight according to the selection of the farm manager and remotely attacks the drone 30. Attack orders can be given.

반면 자동 공격 모드 시에는, 드론(30)은 농장 관리자로부터의 별도의 원격 제어 명령 없이, 모바일 애플리케이션(70)이 제공하는 드론 제어 명령에 따라 유해 동물을 스스로 퇴치할 수 있다.On the other hand, in the automatic attack mode, the drone 30 can exterminate harmful animals on its own according to the drone control command provided by the mobile application 70 without a separate remote control command from the farm manager.

즉, 자동 공격 모드 시 드론(30)은 농장 관리자가 모바일 애플리케이션(70)을 이용하여 사전에 활성화한 퇴치 공격 수단(32)을 사용하여, 드론 제어 명령에 따라 유해 동물을 스스로 퇴치할 수 있다. 이 경우 상기 드론 제어 명령 송신부(23)는 파악된 동물의 종류 내지 퇴치 시나리오에 따라 공격 수단을 선택하고, 드론 제어 명령을 셋업하여 드론에 무선 송신하는 것이 선호된다.That is, in the automatic attack mode, the drone 30 can independently exterminate harmful animals according to the drone control command using the expulsion attack means 32 that the farm manager activated in advance using the mobile application 70. In this case, it is preferred that the drone control command transmitter 23 selects an attack method according to the type or extermination scenario of the identified animal, sets up a drone control command, and wirelessly transmits it to the drone.

상기 동물 인식 신경망(10)은 농장 열화상 카메라(2)로부터의 농장 영상 분석을 통해 유해 동물들의 출현 여부를 감지할 수 있도록 학습될 수 있다.The animal recognition neural network 10 can be trained to detect the appearance of harmful animals through analysis of farm images from the farm thermal imaging camera 2.

또한 상기 동물 인식 신경망(10)은 드론 열화상 카메라(31)로부터의 드론 영상 분석을 통해 유해동물들의 출현 여부를 감지할 수 있도록 학습될 수 있다.Additionally, the animal recognition neural network 10 can be trained to detect the appearance of harmful animals through analysis of drone images from the drone thermal imaging camera 31.

본 발명의 동물 인식 인공지능 신경망(10)은 드론 영상 내지 농장 영상 분석을 통해 유해 동물들의 출현을 감지하기 위해, 유해 동물들을 포함한 다양한 이미지에 의해 사전에 학습된 인공지능 신경망으로, 동물 영역 감지부(11) 과 동물 시맨틱 세그멘테이션부(12)로 구성될 수 있다.The animal recognition artificial intelligence neural network 10 of the present invention is an artificial intelligence neural network that has been pre-trained by various images including harmful animals in order to detect the appearance of harmful animals through analysis of drone images or farm images, and has an animal area detection unit. (11) and an animal semantic segmentation unit (12).

상기 동물 영역 감지부(11)는 사물 디텍션(object detection) 방법에 의해 찾고자 하는 동물 영역에 대해 바운딩 박스(Bounding box)를 제공하는 YOLO 신경망 모델을 사용하는 것이 선호된다.The animal area detection unit 11 preferably uses the YOLO neural network model that provides a bounding box for the animal area to be found by an object detection method.

상기 동물 시맨틱 세그멘테이션부(12)을 통해 드론 영상 내지 농장 영상 속에 나타난 동물의 종류 및 동물의 몸통과 눈 부위를 구분하여 색깔별로 표지된 이미지를 얻을 수 있다.Through the animal semantic segmentation unit 12, it is possible to obtain images labeled by color by distinguishing the type of animal and the animal's body and eye area shown in the drone image or farm image.

상기 동물 위치 좌표 계산부(54)는 드론 영상 내지 농장 영상을 이용하여, 농장 그리드 맵(52)상에서 동물들의 위치를 계산하며, 지역별 농장 그리드 맵(52)의 이미지와 동물이 출현한 좌표 상의 드론 영상 내지 농장 영상 간의 피팅 유사도를 비교하여, 동물의 위치 좌표를 산정하는 것이 선호된다.The animal location coordinate calculation unit 54 calculates the positions of the animals on the farm grid map 52 using drone images or farm images, and uses the image of the regional farm grid map 52 and the drone on the coordinates where the animals appear. It is preferred to calculate the location coordinates of the animal by comparing the fitting similarity between images and farm images.

본 발명에서의 피팅 유사도 판별은 2차원 이미지상에서 이루어지는 SSD(Sum of Squared Difference), SAD(Sum of Absolute Difference), KNN (K-nearest neighbor algorithm), NCC(Normalized Cross Correlation) 기법 중 어느 하나의 기법을 사용하여 산출하는 것이 선호된다.In the present invention, fitting similarity determination is performed using any one of the SSD (Sum of Squared Difference), SAD (Sum of Absolute Difference), KNN (K-nearest neighbor algorithm), and NCC (Normalized Cross Correlation) techniques that are performed on two-dimensional images. It is preferred to calculate using .

상기 동물 인식 인공지능 신경망(10)은 동물의 몸통 내지 눈 부위에 대해 바운딩 박스(Bounding Box)를 제공하는 동물 영역 감지부(11); 및 동물의 몸통과 눈을 구별하여 픽셀별 라벨링을 수행하는 동물 시맨틱 세그멘테이션부(12)를 포함하며, 상기 제어부(20)는 동물 영역 감지부(11)와 동물 시맨틱 세그멘테이션부(12)에 의해 바운딩 박스(Bounding box)내에 동물 존재 여부 및 동물 종류를 결정하는 동물 판단부(22); 동물 영역 감지부(11)와 동물 시맨틱 세그멘테이션부(12)에 의해 동물의 눈 위치를 산정하는 눈위치 좌표 판단부(13); 및 동물 위치좌표 계산부(54)에 의해 제공된 동물들의 위치 좌표로 드론(30)이 출동하여 퇴치 공격을 수행하도록 하기 위해 드론(30)에 드론 제어 명령을 전송하는 드론 제어 명령 송신부(23)를 포함하고, 상기 드론 제어 명령에는 동물의 출현 위치, 동물 종류, 출현 시각 및 개체 수 정보, 눈 위치 좌표 정보, 퇴치 공격 수단(32) 선택 및 퇴치 공격 수단(32) 활성화, 드론(30) 출동 명령, 및 실시간 원격 공격 명령을 포함할 수 있다.The animal recognition artificial intelligence neural network 10 includes an animal area detection unit 11 that provides a bounding box for the animal's body or eye area; and an animal semantic segmentation unit 12 that distinguishes the body and eyes of the animal and performs pixel-by-pixel labeling, and the control unit 20 is bounded by the animal area detection unit 11 and the animal semantic segmentation unit 12. An animal determination unit (22) that determines whether an animal exists within a bounding box and the type of animal; an eye position coordinate determination unit 13 that calculates the eye position of the animal using the animal area detection unit 11 and the animal semantic segmentation unit 12; and a drone control command transmission unit 23 that transmits a drone control command to the drone 30 so that the drone 30 is dispatched to the location coordinates of the animals provided by the animal location coordinate calculation unit 54 and performs an extermination attack. The drone control command includes the appearance location of the animal, animal type, appearance time and population information, eye position coordinate information, selection of the expulsion attack means 32, activation of the expulsion attack means 32, and command to dispatch the drone 30. , and may include real-time remote attack commands.

상기 동물 판단부(22)는 동물 영역 감지부(11)에 의해 생성된 동물 몸통의 바운딩 박스(Bounding Box)내에 동물 시맨틱 세그멘테이션 부(12)에 의해 생성된 동물 몸통의 표지 픽셀수가 소정의 이상 차지 하는 경우 바운딩 박스(Bounding Box)내에 동물 존재한다고 판단하는 것이 선호된다.The animal determination unit 22 determines that the number of mark pixels of the animal body generated by the animal semantic segmentation unit 12 within the bounding box of the animal body generated by the animal area detection unit 11 is greater than a predetermined number. In this case, it is preferred to determine that the animal exists within the bounding box.

본 발명의 동물 판단부(22)는 동물 영역 감지부(11) 와 동물 시맨틱 세그멘테이션 부(12)를 병합하여 동물의 출현 여부 및 동물의 종류를 판단하므로, 높은 정확도를 확보할 수 있다.The animal determination unit 22 of the present invention combines the animal area detection unit 11 and the animal semantic segmentation unit 12 to determine whether an animal appears and the type of animal, thereby ensuring high accuracy.

또한, 본 발명의 AI-유해 동물 감시 장치의 또 다른 측면은 동물 인식 인공지능 신경망(10), 동물 판단부(22), 동물 위치 좌표 계산부(54) 및 눈 위치 좌표 판단부(13)를 드론(30) 내부에 구비하여, 드론(30) 스스로 드론 영상을 분석하여 동물의 종류, 동물의 눈과 몸통을 인식하여 퇴치 공격 수단(32)을 스스로 활성화하는 것을 특징으로 한다. 이 경우 드론(30)은 모바일 애플리케이션(70)의 도움없이 혼자서 유해 동물 추적 및 퇴치를 진행할 수 있게 된다.In addition, another aspect of the AI-harmful animal monitoring device of the present invention includes an animal recognition artificial intelligence neural network (10), an animal determination unit (22), an animal position coordinate calculation unit (54), and an eye position coordinate determination unit (13). It is provided inside the drone 30, and the drone 30 itself analyzes the drone image to recognize the type of animal and the eyes and body of the animal, thereby automatically activating the repellent attack means 32. In this case, the drone 30 can track and exterminate harmful animals alone without the help of the mobile application 70.

또한, 이 경우 모바일 애플리케이션(70)은 드론(30)으로 부터 드론 영상을 수신하여 농장 관리자에게 제공할 수 있으며, 농장 관리자는 모바일 애플리케이션(70)상의 버튼들을 사용하여 원격 제어 명령을 통해 상기 드론(30) 상의 퇴치 공격 수단(32)을 제어하여 유해 동물을 퇴치할 수 있다. Additionally, in this case, the mobile application 70 can receive the drone image from the drone 30 and provide it to the farm manager, and the farm manager can use the buttons on the mobile application 70 to control the drone ( 30) Harmful animals can be repelled by controlling the repelling attack means 32 on the top.

또한, 본 발명의 AI-유해 동물 감시 장치의 또 다른 측면은 동물 인식 인공지능 신경망(10), 동물 판단부(22), 동물 위치 좌표계산부(54) 및 눈 위치 좌표 판단부(13)를 구비한 원격 서버(미도시)를 포함하고, 원격서버는 드론에 의해 촬영된 드론 영상을 원격으로 수신하여 분석하고, 이를 통해 동물의 종류, 위치, 동물의 눈과 몸통을 파악하고 이에 따른 드론 제어 명령을 드론(30)에 무선 송신하여 드론(30)상의 퇴치 공격 수단(32)을 제어함으로서 유해동물을 퇴치할 수 있게 된다.In addition, another aspect of the AI-harmful animal monitoring device of the present invention includes an animal recognition artificial intelligence neural network (10), an animal determination unit (22), an animal position coordinate calculation unit (54), and an eye position coordinate determination unit (13). It includes a remote server (not shown), and the remote server remotely receives and analyzes drone images captured by a drone, determines the type, location, and eyes and body of the animal through this, and gives a drone control command accordingly. It is possible to exterminate harmful animals by wirelessly transmitting to the drone 30 and controlling the expulsion attack means 32 on the drone 30.

또한 이 경우 모바일 애플리케이션(70)은 원격서버으로 부터 드론 영상을 수신하여 농장 관리자에게 제공할 수 있으며, 농장 관리자는 모바일 애플리케이션(70)상의 버튼들을 사용하여 원격 제어 명령을 통해 상기 드론상의 퇴치 공격 수단(32)을 제어하여 유해동물을 퇴치할 수 있다. Also, in this case, the mobile application 70 can receive the drone image from the remote server and provide it to the farm manager, and the farm manager can use the buttons on the mobile application 70 to send a remote control command to the drone for extermination attack means. You can exterminate harmful animals by controlling (32).

도 3a 는 본원에 따른 동물 판단부 및 눈 위치 좌표 판단부로 구성된 동물 인식 인공지능 신경망의 동작 예를 보이는 일 실시예이다. Figure 3a is an embodiment showing an example of the operation of an animal recognition artificial intelligence neural network composed of an animal determination unit and an eye position coordinate determination unit according to the present application.

도 3a 를 참조하면, 동물 영역 감지부(11)는 드론 영상 내지 농장영상 내의 동물 몸통 영역에 대해 바운딩 박스(bounding box)를 생성하는 몸통 영역 감지부(11a), 및 동물의 눈의 위치에 대해 바운딩 박스(bounding box)를 생성하는 눈 영역 감지부(11b)로 구성된다.Referring to FIG. 3A, the animal area detection unit 11 is a body area detection unit 11a that generates a bounding box for the animal body area in the drone image or farm image, and the position of the animal's eyes. It consists of an eye area detection unit 11b that creates a bounding box.

또한, 동물 시맨틱 세그멘테이션부(12)는 동물의 몸통에 대해 픽셀 표지(pixel-wise label)하는 몸통 시맨틱 세그멘테이션부(12a), 및 동물의 눈 영역에 대해 픽셀 표지하는 눈 시맨틱 세그멘테이션부(12b)로 구성될 수 있다.In addition, the animal semantic segmentation unit 12 includes a body semantic segmentation unit 12a that pixel-wise labels the animal's body, and an eye semantic segmentation unit 12b that pixel-wise labels the animal's eye region. It can be configured.

본 실시예의 경우, 동물 판단부(22)는 상기 몸통 영역 감지부(11a) 내에 몸통 시맨틱 세그멘테이션부(12a)에 의해 생성된 몸통의 픽셀수가 소정의 개수 이상 차지 하는 경우 바운딩 박스(Bounding Box)내에 동물이 존재한다고 판단한다.In this embodiment, the animal determination unit 22 determines that the number of pixels of the body generated by the body semantic segmentation unit 12a in the body area detection unit 11a is more than a predetermined number within a bounding box. Decide that animals exist.

또한, 동물의 눈 위치 좌표 판단부(13b)는 동물의 눈의 위치를 파악하기 위한 것으로, 상기 눈 영역 감지부(11b)에 의해 생성된 바운딩 박스(Bounding Box) 내에 눈 시맨틱 세그멘테이션부(12b)에 의해 생성된 눈의 픽셀수가 소정의 개수 이상 차지 하는 경우 바운딩 박스(Bounding Box) 내에 동물 눈이 존재한다고 판단한다.In addition, the animal's eye position coordinate determination unit 13b is for determining the position of the animal's eyes, and the eye semantic segmentation unit 12b is located within the bounding box generated by the eye area detection unit 11b. If the number of pixels of the eyes created by occupies more than a predetermined number, it is determined that animal eyes exist within the bounding box.

만약 상기 동물의 눈 위치 좌표 판단부(13b)에 의해 눈의 위치를 판단하는데 실패한 경우, 상기 시맨틱 분할된 동물의 몸통 영역과 눈 표지가 이루어진 표준 동물의 몸통간의 피팅 유사도에 의해 눈의 위치 좌표를 추정하여 산정하는 것이 선호된다.If the animal's eye position coordinate determination unit 13b fails to determine the eye position, the eye position coordinates are determined based on the fitting similarity between the semantically segmented animal body region and the standard animal body with eye marks. Estimation is preferred.

도 3b 는 본원에 따른 동물의 눈 위치 좌표 판단부(13)의 일 실시예이다.Figure 3b is an example of the eye position coordinate determination unit 13 of an animal according to the present application.

동물의 눈 위치 좌표 판단부(13)는 눈 영역 감지부(11b)에 의해 생성된 Bounding Box(14a)내에 눈 시맨틱 세그멘테이션 부(12b)에 의해 얻어진 동물의 눈(14b)의 픽셀수가 소정의 개수 이상 차지 하는지 판단하여, 소정의 개수 이상인 경우, 바운딩 박스(Bounding Box) 중심 위치에 동물 눈이 존재한다고 판단하며, 이 위치가 레이저 공격 대상이 되며, 이때 레이저 발생기(32a)의 레이저 빔은 이 위치를 향하게 조정된다.The animal's eye position coordinate determination unit 13 determines the number of pixels of the animal's eyes 14b obtained by the eye semantic segmentation unit 12b within the bounding box 14a generated by the eye area detection unit 11b. It is determined whether the number is more than a predetermined number, and if it is more than a predetermined number, it is determined that there are animal eyes at the center of the bounding box, and this location becomes the target of laser attack. At this time, the laser beam of the laser generator 32a is directed to this location. is adjusted towards.

눈 위치 좌표 판단부(13)에 의해 얻어진 동물의 눈의 위치는 드론 영상 위에 중첩 표시되어 레이저 포인팅 화면(70b)을 통해 농장 관리자에게 제공되는 것이 선호된다. 이 경우 농장 관리자는 실시간으로 레이저 포인팅 화면(70b)을 확인하면서, 모바일 애플리케이션(70)상의 레이저 발사 버튼(70e)을 누를 수 있다. The position of the animal's eyes obtained by the eye position coordinate determination unit 13 is preferably displayed overlaid on the drone image and provided to the farm manager through the laser pointing screen 70b. In this case, the farm manager can press the laser firing button 70e on the mobile application 70 while checking the laser pointing screen 70b in real time.

도 3c 는 본원에 따른 드론에 의한 퇴치 공격 수단의 여러 실시예이다. Figure 3c shows several embodiments of a drone-based repelling attack means according to the present application.

구체적으로, 레이저 발생기(32a)를 통하여 동물의 취약한 신체 부위인 눈에 레이저를 발사하는 드론(30)의 눈 레이저 공격과, 드론(30)이 상하로 빠르게 비행하면서, 초음파 스피커(32b) 또는 음향 스피커(32c)를 이용해 동물에게 접근하면서 큰 소리 내지 초음파를 발생시켜 동물에게 위협을 가하는 드론(30)의 위협 비행의 예시를 보인다.Specifically, the eye laser attack of the drone 30, which fires a laser to the eyes, which are vulnerable body parts of the animal, through the laser generator 32a, and the drone 30 flies quickly up and down, producing an ultrasonic speaker 32b or sound. An example of a threatening flight of the drone 30 is shown, which threatens the animal by generating a loud sound or ultrasonic waves while approaching the animal using the speaker 32c.

상기 드론(30)의 레이저 공격은 모바일 기기(40)로부터 제공된 동물의 출현위치 및 눈 위치 좌표 정보를 이용하여 레이저 발생기(32a)를 통해 동물의 눈에 레이저를 발사하여 유해동물을 퇴치하는 것이 선호된다.The laser attack of the drone 30 is preferably performed to exterminate harmful animals by firing a laser into the animal's eyes through the laser generator 32a using the animal's appearance location and eye position coordinate information provided by the mobile device 40. do.

상기 소리 내지 초음파를 동반한 드론(30)의 위협 비행은 드론(30)이 동물 위치 좌표 계산부(54)에서 특정화한 위치 좌표로 이동한 후, 초음파 스피커(32b) 내지 음향 스피커(32c)를 이용해 소리 내지 초음파를 동반하여 빠르게 위아래로 비행하면서 동물에게 위협을 가함으로써, 유해동물을 퇴치하게 된다.The threatening flight of the drone 30 accompanied by the sound or ultrasonic waves is performed after the drone 30 moves to the location coordinates specified in the animal location coordinate calculation unit 54 and then uses the ultrasonic speaker 32b or the acoustic speaker 32c. By using sound or ultrasonic waves to fly up and down quickly and threaten animals, they are used to exterminate harmful animals.

상기 초음파 스피커(32b)는 동물 판단부(22)에 파악된 동물의 종류에 민감하게 반응하는 특정화된 주파수 대역의 초음파를 발산하는 것을 특징으로 한다.The ultrasonic speaker 32b is characterized in that it emits ultrasonic waves in a specified frequency band that responds sensitively to the type of animal identified by the animal determination unit 22.

예컨대, 상기 특정화된 주파수 대역의 초음파는 쥐 또는 들개 인 경우는 13.5 kHz 내지 19.5 kHz, 너구리 혹은 고양이 인 경우는 19.5 kHz 내지 24.5 kHz, 설치류 또는 새는 24.5 kHz 내지 45.5 kHz, 고라니는 25 kHz 내지 30 kHz 대역의 초음파를 사용하는 것이 선호 된다.For example, ultrasound in the specified frequency band is 13.5 kHz to 19.5 kHz for rats or wild dogs, 19.5 kHz to 24.5 kHz for raccoons or cats, 24.5 kHz to 45.5 kHz for rodents or birds, and 25 kHz to 30 kHz for elk. It is preferred to use high-bandwidth ultrasound.

농장 관리자는 원하는 시점에 모바일 애플리케이션(70)을 이용하여 드론 제어 명령 송신부(23)를 통해 드론 제어 명령을 드론(30)에 무선 전송하여 드론(30)상의 퇴치 공격 수단(32)를 원격으로 활성화하거나 조정하여, 유해 동물을 퇴치할 수 있다.The farm manager remotely activates the extermination attack means 32 on the drone 30 by wirelessly transmitting a drone control command to the drone 30 through the drone control command transmitter 23 using the mobile application 70 at a desired time. You can exterminate harmful animals by adjusting or controlling them.

다만, 레이저 공격은 농장 관리자가 모바일 애플리케이션(70)을 통해 실시간으로 드론 영상을 확인하면서, 모바일 애플리케이션(70)상의 레이저 발사 버튼(70e)을 누룰 때마다 레이저가 한발씩 발사되는 것이 선호된다.However, in the laser attack, it is preferred that a laser is fired one at a time each time the farm manager checks the drone image in real time through the mobile application 70 and presses the laser firing button 70e on the mobile application 70.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present application described above is for illustrative purposes, and those skilled in the art will understand that the present application can be easily modified into other specific forms without changing its technical idea or essential features. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as single may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present application.

2 농장 열화상 카메라
3 무선 송신 부
10 동물 인식 인공지능 신경망
11 동물 영역 감지부
11a 몸통 영역 감지부
11b 눈 영역 감지부
12 동물 시맨틱 세그멘테이션부
12a 몸통 시맨틱 세그멘테이션부
12b 눈 시맨틱 세그멘테이션부
13 눈 위치 좌표 판단부
14a 눈 영역 감지부에 의해 생성된 바운딩 박스
14b 눈 시맨틱 세그멘테이션부에 의해 픽셀 표지된 눈
20 제어부
22 동물 판단부
23 드론 제어 명령 송신부
30 드론
31 드론 열화상 카메라
32 퇴치 공격 수단
32a 레이저 발생기
32b 초음파 스피커
33c 음향 스피커
40 모바일 기기
52 농장 그리드맵
54 동물 위치 좌표 계산부
70 모바일 애플리케이션
70a 실시간 드론 영상
70b 레이저 포인팅 화면
70c 공격 수단 선택 메뉴
70d 소리 선택 메뉴
70e 레이저 발사 버튼
70f 원격 공격 모드 버튼
70g 자동 공격 모드 버튼
2 Farm thermal imaging camera
3 wireless transmitting unit
10 Animal Recognition Artificial Intelligence Neural Network
11 Animal area detection unit
11a body area detection unit
11b eye area detection unit
12 Animal semantic segmentation unit
12a Body semantic segmentation unit
12b Eye semantic segmentation unit
13 Eye position coordinate determination unit
14a Bounding box generated by eye area detection unit
14b Eye pixel labeled by eye semantic segmentation unit
20 control unit
22 Animal Judgment Department
23 Drone control command transmitter
30 drones
31 Drone thermal imaging camera
32 means of extermination attack
32a laser generator
32b ultrasonic speaker
33c acoustic speaker
40 mobile devices
52 farm grid map
54 Animal position coordinate calculation unit
70 mobile applications
70a real-time drone video
70b laser pointing screen
70c Attack method selection menu
70d sound selection menu
70e laser fire button
70f remote attack mode button
70g auto attack mode button

Claims (12)

모바일 기기 상에 설치된 모바일 애플리케이션 및 드론을 포함하는 드론을 이용한 AI-유해 동물 감시 장치에 있어서,
상기 드론은 공중 비행동안 동물을 촬영하기 위한 드론 열화상 카메라 및 동물을 퇴치 공격하기 위한 퇴치 공격 수단을 포함하고,
상기 모바일 애플리케이션은 상기 드론 열화상 카메라에 노출된 동물의 눈과 몸통을 감지하기 위한 동물 인식 인공지능 신경망 및 상기 모바일 기기 상의 터치 스크린을 통해 상기 퇴치 공격 수단을 원격으로 선택하여 활성화할 수 있는 공격 수단 선택 메뉴를 포함하는 것인,
드론을 이용한 AI-유해 동물 감시 장치.
In the AI-pest monitoring device using drones, including mobile applications installed on mobile devices and drones,
The drone includes a drone thermal imaging camera for photographing animals during aerial flight and a repelling attack means for repelling and attacking animals,
The mobile application includes an animal recognition artificial intelligence neural network for detecting the eyes and body of an animal exposed to the drone thermal imaging camera, and an attack means that can remotely select and activate the expulsion attack means through a touch screen on the mobile device. Containing a selection menu,
AI-harmful animal surveillance device using drones.
제 1 항에 있어서,
상기 퇴치 공격 수단은 상기 동물의 눈을 레이저 공격하기 위한 레이저 발생기, 초음파 스피커, 음향 스피커 및 이들의 조합들로 이루어진 군에서 선택되는 것을 포함하는 것인,
드론을 이용한 AI-유해 동물 감시 장치.
According to claim 1,
The repelling attack means includes one selected from the group consisting of a laser generator for laser attacking the eyes of the animal, an ultrasonic speaker, an acoustic speaker, and combinations thereof,
AI-harmful animal surveillance device using drones.
제 1 항에 있어서,
상기 모바일 애플리케이션은 소리 종류를 선택할 수 있는 소리 선택 메뉴를 포함하는 것인
드론을 이용한 AI-유해 동물 감시 장치.
According to claim 1,
The mobile application includes a sound selection menu that allows you to select a sound type.
AI-harmful animal surveillance device using drones.
제 1 항에 있어서,
상기 모바일 애플리케이션은 드론 영상 위에 레이저 빔의 위치를 중첩 표시한 레이저 포인팅 화면을 포함하고,
상기 레이저 포인팅 화면을 실시간 확인하면서, 상기 모바일 애플리케이션 상의 레이저 발사 버튼을 눌러 레이저 빔을 발사하는 것인,
드론을 이용한 AI-유해 동물 감시 장치.
According to claim 1,
The mobile application includes a laser pointing screen that displays the position of the laser beam over the drone image,
While checking the laser pointing screen in real time, a laser beam is fired by pressing the laser firing button on the mobile application,
AI-harmful animal surveillance device using drones.
제 1 항에 있어서,
상기 동물 인식 인공지능 신경망은 동물 영역 감지부 및 동물 시맨틱 세그멘테이션부를 포함하고,
상기 동물 영역 감지부는 동물의 몸통 영역에 대해 바운딩 박스(bounding box)를 생성하는 몸통 영역 감지부 및 동물의 눈의 위치에 대해 바운딩 박스를 생성하는 눈 영역 감지부를 포함하며,
상기 동물 시맨틱 세그멘테이션부는 동물의 몸통에 대해 픽셀 표지하는 몸통 시맨틱 세그멘테이션부 및 동물의 눈 영역에 대해 픽셀 표지하는 눈 시맨틱 세그멘테이션부를 포함하는 것인,
드론을 이용한 AI-유해 동물 감시 장치.
According to claim 1,
The animal recognition artificial intelligence neural network includes an animal region detection unit and an animal semantic segmentation unit,
The animal area detection unit includes a body area detection unit that generates a bounding box for the animal's body area and an eye area detection unit that generates a bounding box for the position of the animal's eyes,
The animal semantic segmentation unit includes a body semantic segmentation unit that pixels the body of the animal and an eye semantic segmentation unit that pixels the eye area of the animal.
AI-harmful animal surveillance device using drones.
제 1 항에 있어서,
상기 모바일 애플리케이션은
상기 동물 인식 인공지능 신경망의 결과로부터 동물의 눈 위치를 판별하는 눈위치 좌표 판단부; 및
상기 드론의 제어 명령을 무선 송신하기 위한 드론 제어 명령 송신부;
를 더 포함하는 것인,
드론을 이용한 AI-유해 동물 감시 장치.
According to claim 1,
The mobile application is
an eye position coordinate determination unit that determines the eye position of the animal from the results of the animal recognition artificial intelligence neural network; and
A drone control command transmitter for wirelessly transmitting a control command for the drone;
which further includes,
AI-harmful animal surveillance device using drones.
제 1 항에 있어서,
상기 드론을 이용한 AI-유해 동물 감시 장치는
동물을 촬영하기 위한 농장 열화상 카메라; 및
상기 농장 열화상 카메라에 의해 얻어진 영상을 상기 모바일 기기 상에 제공하기 위한 무선 송신부;
를 추가 포함하는 것인,
드론을 이용한 AI-유해 동물 감시 장치.
According to claim 1,
The AI-harmful animal monitoring device using the drone is
Farm thermal imaging cameras for filming animals; and
a wireless transmitter for providing images obtained by the farm thermal imaging camera to the mobile device;
which additionally includes,
AI-harmful animal surveillance device using drones.
제 7 항에 있어서,
상기 모바일 애플리케이션은
상기 농장 열화상 카메라 및/또는 상기 드론 열화상 카메라로부터 얻어진 영상을 통해 농장 그리드 맵 상에서 감지된 동물들의 위치를 계산하고, 위치 좌표를 특정화시키기 위한 동물 위치 좌표 계산부를 포함하는 것인,
드론을 이용한 AI-유해 동물 감시 장치.
According to claim 7,
The mobile application is
Comprising an animal position coordinate calculation unit for calculating the positions of animals detected on a farm grid map through images obtained from the farm thermal imaging camera and/or the drone thermal imaging camera, and specifying the position coordinates,
AI-harmful animal surveillance device using drones.
드론을 이용한 AI-유해 동물 감시 장치에 있어서,
상기 드론은,
공중 비행동안 동물을 촬영하기 위한 드론 열화상 카메라;
동물을 퇴치 공격하기 위한 퇴치 공격 수단;
상기 드론 열화상 카메라에 노출된 동물의 눈과 몸통을 감지하기 위한 동물 인식 인공지능 신경망;
농장 그리드 맵 상에서 감지된 동물들의 위치 좌표를 특정화시키기 위한 동물 위치좌표 계산부; 및
상기 동물 인식 인공지능 신경망의 결과로부터 동물의 눈 위치를 판별하는 눈위치 좌표 판단부;
를 포함하는 것인,
드론을 이용한 AI-유해 동물 감시 장치.
In AI-harmful animal surveillance device using drones,
The drone is,
Drone thermal imaging cameras for filming animals during mid-air flight;
Repelling attack means for repelling and attacking animals;
An animal recognition artificial intelligence neural network for detecting the eyes and body of an animal exposed to the drone thermal imaging camera;
An animal location coordinate calculation unit for specifying the location coordinates of animals detected on the farm grid map; and
an eye position coordinate determination unit that determines the eye position of the animal from the results of the animal recognition artificial intelligence neural network;
which includes,
AI-harmful animal surveillance device using drones.
제 9 항에 있어서,
상기 드론으로부터 드론 영상을 수신하여 농장 관리자에게 제공하는 모바일 애플리케이션을 더 포함하고,
농장 관리자는 모바일 애플리케이션 상의 버튼을 사용하여 원격 제어 명령을 통해 상기 퇴치 공격 수단을 제어하여 유해 동물을 퇴치하는 것인,
드론을 이용한 AI-유해 동물 감시 장치.
According to clause 9,
It further includes a mobile application that receives drone images from the drone and provides them to the farm manager,
The farm manager controls the extermination attack means through remote control commands using buttons on the mobile application to exterminate the harmful animals,
AI-harmful animal surveillance device using drones.
드론 및 상기 드론에 의해 촬영된 드론 영상을 원격으로 수신하여 분석하는 원격 서버를 포함하는 드론을 이용한 AI-유해 동물 감시 장치에 있어서,
상기 원격 서버는,
상기 드론 영상에 노출된 동물의 눈과 몸통을 감지하기 위한 동물 인식 인공지능 신경망;
농장 그리드 맵 상에서 감지된 동물들의 위치 좌표를 특정화시키기 위한 동물 위치좌표 계산부; 및
상기 동물 인식 인공지능 신경망의 결과로부터 동물의 눈 위치를 판별하는 눈위치 좌표 판단부;
를 포함하고,
상기 드론은,
공중 비행동안 동물을 촬영하기 위한 드론 열화상 카메라; 및
동물을 퇴치 공격하기 위한 퇴치 공격 수단;
을 포함하는 것인,
드론을 이용한 AI-유해 동물 감시 장치.
In the AI-harmful animal monitoring device using a drone, which includes a drone and a remote server that remotely receives and analyzes drone images captured by the drone,
The remote server is,
An animal recognition artificial intelligence neural network for detecting the eyes and body of animals exposed to the drone image;
An animal location coordinate calculation unit for specifying the location coordinates of animals detected on the farm grid map; and
an eye position coordinate determination unit that determines the eye position of the animal from the results of the animal recognition artificial intelligence neural network;
Including,
The drone is,
Drone thermal imaging cameras for filming animals during mid-air flight; and
Repelling attack means for repelling and attacking animals;
Which includes,
AI-harmful animal surveillance device using drones.
제 11 항에 있어서,
상기 드론 내지 원격 서버로부터 드론 영상을 수신하여 농장 관리자에게 제공하는 모바일 애플리케이션을 더 포함하고,
농장 관리자는 모바일 애플리케이션상의 버튼을 사용하여 원격 제어 명령을 통해 상기 퇴치 공격 수단을 제어하여 유해 동물을 퇴치하는 것인,
드론을 이용한 AI-유해 동물 감시 장치.
According to claim 11,
It further includes a mobile application that receives drone images from the drone or remote server and provides them to the farm manager,
The farm manager controls the extermination attack means through a remote control command using a button on the mobile application to exterminate the harmful animals,
AI-harmful animal surveillance device using drones.
KR1020220147062A 2022-11-07 2022-11-07 Ai-harmful animal monitoring apparatus using drone and eradication attack method using the same KR20240068826A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220147062A KR20240068826A (en) 2022-11-07 2022-11-07 Ai-harmful animal monitoring apparatus using drone and eradication attack method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220147062A KR20240068826A (en) 2022-11-07 2022-11-07 Ai-harmful animal monitoring apparatus using drone and eradication attack method using the same

Publications (1)

Publication Number Publication Date
KR20240068826A true KR20240068826A (en) 2024-05-20

Family

ID=91283274

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220147062A KR20240068826A (en) 2022-11-07 2022-11-07 Ai-harmful animal monitoring apparatus using drone and eradication attack method using the same

Country Status (1)

Country Link
KR (1) KR20240068826A (en)

Similar Documents

Publication Publication Date Title
US10026165B1 (en) Object image recognition and instant active response
US20180064094A1 (en) Systems and methods for defending crops from crop-damaging pests via unmanned vehicles
US20140169138A1 (en) Apparatus and method for repelling pests in greenhouse
KR20180001429A (en) Vermin Prevention System based on IoT Technology with Sound Detection
US20180068164A1 (en) Systems and methods for identifying pests in crop-containing areas via unmanned vehicles
US20210368776A1 (en) System and methods for automated wildlife detection, monitoring and control
KR100825091B1 (en) Forming recocnition type pest bird and wildlife control system
Schiano et al. Autonomous detection and deterrence of pigeons on buildings by drones
KR20200091524A (en) Crop management system
KR101840812B1 (en) invasion alert apparatus
KR20240068826A (en) Ai-harmful animal monitoring apparatus using drone and eradication attack method using the same
US20230247978A1 (en) Method and System for an Insect Killer Drone
KR102143072B1 (en) Smart cctv system for detecting of wild animals
JP6421390B2 (en) Animal disposal method and animal disposal apparatus
KR102492066B1 (en) Mobile preventive warning system
JP6183734B1 (en) Method and structure for preventing flight of harmful birds such as starlings and sparrows
US20210315186A1 (en) Intelligent dual sensory species-specific recognition trigger system
JP7005026B2 (en) Object recognition device
KR101966898B1 (en) Auto Security System
KR102030770B1 (en) Apparatus and method for preventing trespass of harmful wild animal
Ibam et al. IOT-Based Farmland Intrusion Detection System
JP7228852B6 (en) Bird and beast intimidation system
Harshini et al. Artificial Intelligence Based Scarecrow Prevention from Crop Destruction
JP7445909B1 (en) Pest control systems and pest control programs
KR102597373B1 (en) Train track wildlife detection systme and method