KR102276549B1 - Method and system for identification and capturing harmful animals through ai-based monitoring camera - Google Patents

Method and system for identification and capturing harmful animals through ai-based monitoring camera Download PDF

Info

Publication number
KR102276549B1
KR102276549B1 KR1020200146623A KR20200146623A KR102276549B1 KR 102276549 B1 KR102276549 B1 KR 102276549B1 KR 1020200146623 A KR1020200146623 A KR 1020200146623A KR 20200146623 A KR20200146623 A KR 20200146623A KR 102276549 B1 KR102276549 B1 KR 102276549B1
Authority
KR
South Korea
Prior art keywords
harmful
gate
camera
birds
noxious
Prior art date
Application number
KR1020200146623A
Other languages
Korean (ko)
Inventor
신창국
정운근
조규득
이선미
Original Assignee
(주)동아씨앤지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)동아씨앤지 filed Critical (주)동아씨앤지
Priority to KR1020200146623A priority Critical patent/KR102276549B1/en
Priority to PCT/KR2020/017753 priority patent/WO2022097824A1/en
Application granted granted Critical
Publication of KR102276549B1 publication Critical patent/KR102276549B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M23/00Traps for animals
    • A01M23/16Box traps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M2200/00Kind of animal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Pest Control & Pesticides (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Insects & Arthropods (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Wood Science & Technology (AREA)
  • Zoology (AREA)
  • Environmental Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Catching Or Destruction (AREA)

Abstract

The present disclosure relates to a method and a system for identifying and capturing harmful birds using an artificial intelligence-based detection camera. The system for identifying and capturing harmful birds using an artificial intelligence-based detection camera includes: a capturing frame including a first gate and a second gate that can be opened and closed; a first camera that detects the appearance of harmful birds within a scope of a first region of interest set in the first gate and detects the number of individuals; and a second camera that detects the appearance of harmful birds within a scope of a second region of interest set in the second gate and detects the number of individuals.

Description

인공지능 기반의 선택객체 감지 카메라를 통한 유해조수 식별 및 포획 방법 및 시스템{METHOD AND SYSTEM FOR IDENTIFICATION AND CAPTURING HARMFUL ANIMALS THROUGH AI-BASED MONITORING CAMERA}Method and system for identifying and capturing harmful tides through an AI-based selective object detection camera {METHOD AND SYSTEM FOR IDENTIFICATION AND CAPTURING HARMFUL ANIMALS THROUGH AI-BASED MONITORING CAMERA}

본 개시는 인공지능 기반의 선택객체 감지 카메라를 통한 유해조수 식별 및 포획 방법 및 시스템에 관한 것으로, 구체적으로, 인공지능 기반의 유해조수 감지 기능이 있는 카메라를 통해 관심영역(ROI, Region Of Interest) 범위 내 유해조수 출현 및 개체수를 감지하고, 감지된 포획틀 출입 개체수에 기초하여 유해조수를 식별 및 포획하는 방법 및 시스템에 관한 것이다. The present disclosure relates to a method and system for identifying and capturing harmful tides through an AI-based selective object detection camera, and specifically, to a region of interest (ROI) through a camera with an AI-based harmful tide detection function. The present invention relates to a method and system for detecting the appearance and number of harmful birds within a range, and for identifying and capturing harmful birds based on the detected number of entering and exiting traps.

일반적으로, 유해조수는 사람의 주거 공간을 침범하면서 농작물, 기물 등을 손괴하여 피해를 주거나, 사람에게 위협을 가해 사고 위험 등의 위해를 가하는 동물 또는 조류 등을 지칭한다. 최근에는 유해조수의 야생 서식지가 점차 줄거나, 가정에서 기르던 개과 동물들이 버려지면서 야생에서 적응하여 유해조수의 도심 주거지 등의 침입이 늘어나고 있어 유해조수의 포획을 위한 기술개발이 요구되고 있다. In general, harmful tidal waves refer to animals or birds that damage people's living space and damage crops, equipment, or the like, or threaten people to inflict harm, such as an accident risk. Recently, as the wild habitats of harmful tidal currents are gradually decreasing or domestic canines have been abandoned, they have adapted to the wild and intrusion of harmful tidal currents into urban dwellings, etc. is increasing. Therefore, the development of technology for catching harmful algae is required.

유해조수가 감염 위험이 있는 바이러스 등 세균을 보균하고 있는 경우, 인간, 가축 등 불특정 다수의 위생에 크나큰 위해를 야기할 수 있어 검역활동 및 방역의 중요성이 증가하고 있다. 예를 들어, 아프리카 돼지열병 바이러스는 제1종 가축전염병으로 야생멧돼지와 사육돼지의 모든 연령층에서 발생하며, 아프리카 돼지열병 바이러스에 감염된 돼지는 2~10일 사이에 폐사율 100%를 나타낸다. 이러한 아프리카 돼지열병 바이러스는 1921년 케냐에서 발병 사례가 처음 발표된 이후, 1957년 유럽에서 첫 감염을 시작으로 중국, 동 남아 등에 발병하였다. 최근 우리나라에서도 발생하여 전파의 차단을 위하여 매개체인 야생멧돼지의 이동 방지 및 방역에 노력을 기울이고 있다. 이러한 아프리카 돼지열병 바이러스의 전파 경로는 감염된 개체와의 접촉에 의한 것과 바이러스에 감염된 개체의 식자재로 유통 및 잔반급여에 따른 전파가 주요 원인이다.If harmful tides carry bacteria such as viruses that are at risk of infection, they can cause great harm to the hygiene of an unspecified number of people, such as humans and livestock, so the importance of quarantine activities and quarantine is increasing. For example, African swine fever virus is a type 1 livestock contagious disease that occurs in all age groups of wild boars and domestic pigs. Pigs infected with African swine fever virus show 100% mortality within 2 to 10 days. After the first case of African swine fever virus was announced in Kenya in 1921, the first infection started in Europe in 1957, and then it occurred in China and Southeast Asia. Recently in Korea, efforts are being made to prevent the movement and quarantine of wild boars, which are vectors, in order to block the transmission. The main cause of the spread of the African swine fever virus is through contact with infected individuals and spread through distribution and leftover feeding of infected individuals.

이를 해결하기 위해 전염병의 매개체가 될 수 있는 유해조수를 포획하고, 관리가 필요하다. 이러한 유해조수의 포획을 위한 장치는 기본적으로 유해조수를 가두기 위한 포획틀을 마련하고, 포획틀의 출입구로 포획틀에 유인된 유해조수가 도망가지 못하도록 가두기 위한 도어를 포함한다. 예를 들어, 종래 국내등록특허공보 제10-1625188호를 살펴보면, 복수의 프레임들을 격자형상으로 연결하면서 각 프레임들간은 철망으로 커버되도록 한 철망틀을 이용하여 유해조수를 포획하는 기술이 공개되어 있다. 이 종래 기술에 따르면, 철망틀의 한 측면의 단부가 경첩으로 연결되게 하여 안쪽으로만 회전하면서 개방되도록 하는 도어를 이용하여, 야생동물을 연속 포획할 수 있다. To solve this problem, it is necessary to capture and manage harmful algae that can become vectors of infectious diseases. The device for capturing such harmful algae basically includes a trapping frame for trapping the harmful algae, and a door for trapping the harmful algae attracted to the trapping frame through the entrance of the trapping frame to prevent escape. For example, looking at the conventional Korean Patent Registration No. 10-1625188, a technique for catching harmful tides using a wire mesh frame that connects a plurality of frames in a grid shape while covering each frame with a wire mesh is disclosed. . According to this prior art, wild animals can be continuously captured by using a door in which the end of one side of the wire mesh frame is connected by a hinge so that it is opened while rotating only inward.

그러나 종래에는 포획장치에서 유해조수를 가두기 위한 도어는 보통 성체에 맞는 크기로 제작되기 때문에 유형 (幼形)의 시기인 새끼들은 성체에 맞게 제작된 도어의 무게에 의해 밀고 들어갈 수 없어 유해조수의 새끼 포획이 어려운 문제점이 있었다. 또한, 종래에는 경계심이 많은 유해조수의 경계심을 줄이기위해 포획장치를 장기적으로 설치하여 사람이 직접 주기적으로 점검하고, 유해조수의 포획 여부를 사람이 직접 확인하기 때문에, 포획장치의 유지관리가 매우 번거롭고, 포획 확인이 어려워 편의성이 현저히 떨어지는 문제점이 있었다.However, in the prior art, the door for trapping noxious birds in the trapping device is usually manufactured in a size suitable for the adult, so the pups in the tangible age cannot be pushed in by the weight of the door made to fit the adult. There was a problem that it was difficult to capture. In addition, in the prior art, in order to reduce the vigilance of harmful tidal birds, a catching device is installed for a long period of time, and a person periodically inspects it directly, and a person directly checks whether or not the toxic tidal is captured. , it was difficult to confirm the capture, so there was a problem that the convenience was significantly reduced.

본 개시는 상기와 같은 문제점을 해결하기 위해, 인공지능 기반의 선택객체 감지 카메라를 통해 유해조수 식별 및 포획을 효율적으로 관리하고, 성체와 새끼가 집단으로 이동하는 유해조수의 습성에 따라 동시에 포획할 수 있는, 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획 방법 및 시스템을 제공한다.In order to solve the above problems, the present disclosure efficiently manages identification and capture of harmful birds through an artificial intelligence-based selective object detection camera, and simultaneously captures according to the habit of harmful birds moving in groups with adults and offspring. It provides a method and system for identifying and capturing harmful birds through an artificial intelligence-based detection camera.

본 개시에 따르면, 인공지능 카메라를 통해 관심영역(ROI, Region Of Interest) 범위 내 유해조수 출현 및 개체수를 감지하고, 포획틀 출입 개체수를 감지하여 유해조수를 식별 및 포획하는 방법 및 시스템이 제공된다.According to the present disclosure, there is provided a method and system for detecting the appearance and number of harmful birds within a region of interest (ROI) range through an artificial intelligence camera, and detecting the number of entering and exiting a trap to identify and capture harmful birds. .

또한, 본 개시에 따르면, 딥러닝 학습을 통하여 포획하고자 하는 유해조수의 종류 등을 감지 및 분류할 수 있도록 구성된 유해조수 분류 모델을 포획틀에 설치된 엣지 카메라에 탑재될 수 있다. 이에 따라, 포획틀 현장에서 카메라 스스로 유해조수 객체의 출현, 개체수, 포획의 유무 등을 판단하고, 그 판단결과를 네트워크를 통하여 관리자의 단말 장치에게 알람 또는 푸쉬의 형태로 전송하여 보다 효율적인 포획 및 포획틀의 유지 보수가 가능하다. In addition, according to the present disclosure, a harmful tidal classification model configured to detect and classify a type of harmful tidal to be captured through deep learning learning may be mounted on an edge camera installed in a capture frame. Accordingly, at the capture frame site, the camera itself determines the appearance, number, and presence of harmful tidal objects, and transmits the determination result in the form of an alarm or push to the administrator's terminal device through the network for more efficient capture and capture. The maintenance of the frame is possible.

또한, 본 개시에 따르면, 멧돼지나, 고라니, 들개, 뉴트리아 등과 같은 형태와 동작 패턴이 상이한 복수의 종류의 유해조수 각각을 분류 또는 판별하도록 학습된 인공지능 기반의 유해조수 분류 모델을 필요에 따라 적절히 인공지능 카메라에 탑재함으로써, 특정 종류의 유해조수의 효율적인 포획이 가능할 수 있다. 또한, 본 개시에 따르면, 유해조수의 종류에 따라 포획틀 및 포획 방법의 구현 및 설치가 상이하여 새로운 포획틀 설치 시에 적절한 포획 방법의 적용이 어려운 문제점이 해결될 수 있다.In addition, according to the present disclosure, an artificial intelligence-based harmful tide classification model trained to classify or discriminate each of a plurality of types of harmful birds having different shapes and operation patterns, such as wild boar, elk, wild dog, and nutria, is appropriately applied as needed. By mounting it on an AI camera, it may be possible to efficiently capture certain types of harmful algae. In addition, according to the present disclosure, the implementation and installation of a trapping frame and a trapping method are different depending on the type of harmful algae, so that it is difficult to apply an appropriate trapping method when a new trapping frame is installed.

본 개시의 일 실시예에 따른 인공지능 기반의 선택객체 감지 카메라를 통한 유해조수 식별 및 포획 시스템은, 개폐 가능한 제1 게이트 및 제2 게이트를 포함하는 포획틀, 제1 게이트에 인접하여 설정된 제1 관심영역 범위 내 유해조수의 출현 및 개체수를 감지하는 제1 카메라 및 제2 게이트에 인접하여 설정된 제2 관심영역 범위 내 유해조수의 출현 및 개체수를 감지하는 제2 카메라를 포함한다.The system for identifying and capturing harmful birds through an artificial intelligence-based selective object detection camera according to an embodiment of the present disclosure includes a capture frame including an openable and openable first gate and a second gate, and a first set adjacent to the first gate. and a first camera for detecting the appearance and number of harmful birds within the region of interest, and a second camera for detecting the appearance and number of harmful birds within a second region of interest set adjacent to the second gate.

본 개시의 다른 실시예에 따른 인공지능 기반의 선택객체 감지 카메라를 통한 유해조수 식별 및 포획 방법은, 제1 카메라에 의해, 개폐 가능한 제1 게이트 및 제2 게이트를 포함하는 포획틀에 있어서, 제1 게이트에 인접하여 설정된 제1 관심영역 범위 내 유해조수의 성체의 출현을 감지하는 단계, 제1 카메라에 의해, 제1 게이트를 통과한 유해조수의 성체의 개체수를 감지하는 단계, 제1 게이트를 통과한 유해조수의 성체의 개체수가 사전 결정된 제1 개체수를 초과하는 경우, 제1 카메라에 의해, 제1 게이트를 닫도록 제어하는 단계, 제2 카메라에 의해, 제2 게이트에 인접하여 설정된 제2 관심영역 범위 내 유해조수의 새끼의 출현을 감지하는 단계, 제2 카메라에 의해, 제2 게이트를 통과한 유해조수의 새끼의 개체수를 감지하는 단계 및 제2 게이트를 통과한 유해조수의 새끼의 개체수가 사전 결정된 제1 개체수를 초과하는 경우, 제2 카메라에 의해, 제2 게이트를 닫도록 제어하는 단계를 포함한다.According to another embodiment of the present disclosure, there is provided a method for identifying and capturing harmful birds using an artificial intelligence-based selective object detection camera, in a capture frame including a first gate and a second gate that can be opened and closed by a first camera, Detecting the appearance of an adult of noxious birds within a range of a first region of interest set adjacent to the first gate, detecting, by a first camera, the number of adults of noxious birds that have passed through the first gate; Controlling, by the first camera, to close the first gate, when the number of adults of the passing noxious bird exceeds the first predetermined number; by the second camera, a second set adjacent to the second gate Detecting the appearance of offspring of harmful birds within the region of interest; detecting, by the second camera, the number of offspring of harmful birds that have passed through the second gate; and the number of offspring of harmful birds that have passed through the second gate and controlling, by the second camera, to close the second gate when the number of ? exceeds a first predetermined number of individuals.

본 개시의 일부 실시예에 따르면, 포획틀에 설치된 카메라에 포획 대상 유해조수 별로 학습된 인공지능 기반의 유해조수 감지 모델이 설치되기 때문에, 포획 대상 또는 목적에 맞게 효율적인 포획틀의 제어와 활용이 가능하다.According to some embodiments of the present disclosure, since the artificial intelligence-based harmful tide detection model learned for each harmful tide to be captured is installed in the camera installed in the capture frame, it is possible to efficiently control and utilize the capture frame according to the capture target or purpose Do.

본 개시의 일부 실시예에 따르면, 포획틀에 설치된 감시 카메라를 무선통신을 통해 원거리에서 동작하는 사용자 단말기 또는 스마트폰을 이용하여 포획틀의 상태를 실시간 확인할 수 있어, 포획장치의 유지관리가 간편해지면서 편의성이 대폭 향상되는 효과가 있다.According to some embodiments of the present disclosure, it is possible to check the status of the capture frame in real time using a user terminal or a smart phone that operates remotely through wireless communication with a surveillance camera installed on the capture frame, thereby simplifying the maintenance of the capture device. Convenience is greatly improved.

본 개시의 일부 실시예에 따르면, 포획틀에 유해조수의 크기별로 복수의 게이트가 마련됨에 따라 다양한 크기의 유해조수를 포획될 수 있으며, 포획 대상의 습성을 고려하여 포획 가능한 개체의 범위를 확대할 수 있는 효과가 있다.According to some embodiments of the present disclosure, as a plurality of gates are provided for each size of noxious tide in the capture frame, noxious birds of various sizes can be captured, and the range of captureable entities can be expanded in consideration of the habits of the target. can have an effect.

본 개시의 일부 실시예에 따르면, 포획틀 내에 유해조수의 배설물 등과 같은 유인물질을 배치함에 따라 유해조수를 포획틀 안으로 쉽게 유도하여 포획 확률이 향상되는 효과가 있다.According to some embodiments of the present disclosure, by arranging an attractant such as excreta of harmful algae in the trapping frame, there is an effect of improving the capture probability by easily guiding harmful tides into the trapping frame.

본 개시의 일부 실시예에 따르면, 포획틀에 출입하는 유해조수의 개체수에 따라 게이트의 개폐여부를 제어하기 때문에, 포획 대상의 군집 행동 특성을 고려하여 다수의 유해조수를 동시에 포획할 수 있는 효과를 가진다.According to some embodiments of the present disclosure, since the opening and closing of the gate is controlled according to the number of harmful birds entering and exiting the trapping frame, the effect of simultaneously capturing a plurality of harmful birds in consideration of the swarm behavioral characteristics of the capture target is obtained. have

본 개시의 실시예들은, 이하 설명하는 첨부 도면들을 참조하여 설명될 것이며, 여기서 유사한 참조 번호는 유사한 요소들을 나타내지만, 이에 한정되지는 않는다.
도 1은 본 개시의 일 실시예에 따른 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획 시스템의 구성을 나타내는 예시도이다.
도 2는 본 개시의 일 실시예에 따른 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획 시스템의 정보를 공유하기 위해, 유해조수 식별 및 포획 시스템이 복수의 사용자 단말과 통신 가능하도록 연결된 구성을 나타내는 개요도이다.
도 3은 본 개시의 일 실시예에 따른 인공지능 기반의 감지 카메라의 내부 구성을 나타내는 블록도이다.
도 4는 본 개시의 일 실시예에 따라 유해조수 이미지 또는 영상을 유해조수 종류로 분류하도록 학습된 인공신경망을 포함하는 유해조수 판별 모델의 구성을 나타내는 도면이다.
도 5는 본 개시의 일 실시예에 따른 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획 방법을 나타내는 흐름도이다.
도 6은 본 개시의 일 실시예에 따른 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획을 제어하기 위한 사용자 단말 장치의 사용자 인터페이스의 예시를 보여주는 도면이다.
도 7은 본 개시의 일 실시예에 따른 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획을 제어하기 위한 사용자 단말 장치에 지정된 식별 유해조수의 출현을 보여주는 도면이다.
도 8은 본 개시의 일 실시예에 따른 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획을 제어하기 위한 사용자 단말 장치에 식별 유해조수의 포획틀 출입을 보여주는 도면이다.
도 9는 본 개시의 일 실시예에 따른 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획을 제어하기 위한 사용자 단말 장치에 지정된 개체수의 식별 유해조수 포획을 보여주는 도면이다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present disclosure will be described with reference to the accompanying drawings described below, wherein like reference numerals denote like elements, but are not limited thereto.
1 is an exemplary diagram illustrating the configuration of a system for identifying and capturing harmful birds using an artificial intelligence-based detection camera according to an embodiment of the present disclosure.
2 is a configuration in which the harmful bird identification and capture system is connected to communicate with a plurality of user terminals in order to share information of the harmful bird identification and capture system through an artificial intelligence-based detection camera according to an embodiment of the present disclosure; It is a schematic diagram showing
3 is a block diagram illustrating an internal configuration of an AI-based detection camera according to an embodiment of the present disclosure.
4 is a diagram illustrating a configuration of a harmful tide identification model including an artificial neural network trained to classify a harmful tide image or image into a harmful tide type according to an embodiment of the present disclosure.
5 is a flowchart illustrating a method for identifying and capturing harmful birds using an artificial intelligence-based detection camera according to an embodiment of the present disclosure.
6 is a diagram illustrating an example of a user interface of a user terminal device for controlling identification and capture of harmful birds through an artificial intelligence-based detection camera according to an embodiment of the present disclosure.
7 is a view showing the appearance of identified harmful birds designated in a user terminal device for controlling identification and capture of harmful birds through an artificial intelligence-based detection camera according to an embodiment of the present disclosure.
FIG. 8 is a view showing entry and exit of a trapping frame of identified harmful birds to a user terminal device for controlling identification and capture of harmful birds through an artificial intelligence-based detection camera according to an embodiment of the present disclosure.
FIG. 9 is a view showing identification of harmful birds and capturing of a designated number of individuals in a user terminal device for controlling identification and capture of harmful birds through an artificial intelligence-based detection camera according to an embodiment of the present disclosure.

이하, 본 개시의 실시를 위한 구체적인 내용을 첨부된 도면을 참조하여 상세히 설명한다. 다만, 이하의 설명에서는 본 개시의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.Hereinafter, specific contents for carrying out the present disclosure will be described in detail with reference to the accompanying drawings. However, in the following description, if there is a risk of unnecessarily obscuring the subject matter of the present disclosure, detailed descriptions of well-known functions or configurations will be omitted.

첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응되는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다.In the accompanying drawings, identical or corresponding components are assigned the same reference numerals. In addition, in the description of the embodiments below, overlapping description of the same or corresponding components may be omitted. However, even if descriptions regarding components are omitted, it is not intended that such components are not included in any embodiment.

개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.Advantages and features of the disclosed embodiments, and methods of achieving them, will become apparent with reference to the embodiments described below in conjunction with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments allow the present disclosure to be complete, and those of ordinary skill in the art to which the present disclosure pertains. It is only provided to fully inform the person of the scope of the invention.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다. 본 명세서에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.Terms used in this specification will be briefly described, and the disclosed embodiments will be described in detail. The terms used in this specification are selected as currently widely used general terms as possible while considering the functions in the present disclosure, but may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the contents of the present disclosure, rather than the simple name of the term.

본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다. 또한, 복수의 표현은 문맥상 명백하게 복수인 것으로 특정하지 않는 한, 단수의 표현을 포함한다. 명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.References in the singular herein include plural expressions unless the context clearly dictates that the singular is singular. Also, the plural expression includes the singular expression unless the context clearly dictates the plural. When a part "includes" a certain element throughout the specification, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated.

또한, 명세서에서 사용되는 '모듈' 또는 '부'라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, '모듈' 또는 '부'는 어떤 역할들을 수행한다. 그렇지만 '모듈' 또는 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '모듈' 또는 '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '모듈' 또는 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 또는 변수들 중 적어도 하나를 포함할 수 있다. 구성요소들과 '모듈' 또는 '부'들은 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '모듈' 또는 '부'들로 결합되거나 추가적인 구성요소들과 '모듈' 또는 '부'들로 더 분리될 수 있다.In addition, the term 'module' or 'unit' used in the specification means a software or hardware component, and 'module' or 'unit' performs certain roles. However, 'module' or 'unit' is not meant to be limited to software or hardware. A 'module' or 'unit' may be configured to reside on an addressable storage medium or may be configured to refresh one or more processors. Thus, as an example, 'module' or 'unit' refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, may include at least one of procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays or variables. Components and 'modules' or 'units' are the functions provided therein that are combined into a smaller number of components and 'modules' or 'units' or additional components and 'modules' or 'units' can be further separated.

본 개시의 일 실시예에 따르면 '모듈' 또는 '부'는 프로세서 및 메모리로 구현될 수 있다. '프로세서'는 범용 프로세서, 중앙 처리 장치(CPU), 마이크로프로세서, 디지털 신호 프로세서(DSP), 제어기, 마이크로제어기, 상태 머신 등을 포함하도록 넓게 해석되어야 한다. 몇몇 환경에서는, '프로세서'는 주문형 반도체(ASIC), 프로그램가능 로직 디바이스(PLD), 필드 프로그램가능 게이트 어레이(FPGA) 등을 지칭할 수도 있다. '프로세서'는, 예를 들어, DSP와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 결합한 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 그러한 구성들의 조합과 같은 처리 디바이스들의 조합을 지칭할 수도 있다. 또한, '메모리'는 전자 정보를 저장 가능한 임의의 전자 컴포넌트를 포함하도록 넓게 해석되어야 한다. '메모리'는 임의 액세스 메모리(RAM), 판독-전용 메모리(ROM), 비-휘발성 임의 액세스 메모리(NVRAM), 프로그램가능 판독-전용 메모리(PROM), 소거-프로그램가능 판독 전용 메모리(EPROM), 전기적으로 소거가능 PROM(EEPROM), 플래쉬 메모리, 자기 또는 광학 데이터 저장장치, 레지스터들 등과 같은 프로세서-판독가능 매체의 다양한 유형들을 지칭할 수도 있다. 프로세서가 메모리로부터 정보를 판독하고/하거나 메모리에 정보를 기록할 수 있다면 메모리는 프로세서와 전자 통신 상태에 있다고 불린다. 프로세서에 집적된 메모리는 프로세서와 전자 통신 상태에 있다. According to an embodiment of the present disclosure, a 'module' or a 'unit' may be implemented with a processor and a memory. 'Processor' should be construed broadly to include general purpose processors, central processing units (CPUs), microprocessors, digital signal processors (DSPs), controllers, microcontrollers, state machines, and the like. In some circumstances, a 'processor' may refer to an application specific semiconductor (ASIC), a programmable logic device (PLD), a field programmable gate array (FPGA), or the like. 'Processor' refers to a combination of processing devices, such as, for example, a combination of a DSP and a microprocessor, a combination of a plurality of microprocessors, a combination of one or more microprocessors in combination with a DSP core, or any other such configurations. You may. Also, 'memory' should be construed broadly to include any electronic component capable of storing electronic information. 'Memory' means random access memory (RAM), read-only memory (ROM), non-volatile random access memory (NVRAM), programmable read-only memory (PROM), erase-programmable read-only memory (EPROM); may refer to various types of processor-readable media, such as electrically erasable PROM (EEPROM), flash memory, magnetic or optical data storage, registers, and the like. A memory is said to be in electronic communication with the processor if the processor is capable of reading information from and/or writing information to the memory. A memory integrated in the processor is in electronic communication with the processor.

도 1은 본 개시의 일 실시예에 따른 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획 시스템의 구성을 나타내는 예시도이다.1 is an exemplary diagram illustrating the configuration of a system for identifying and capturing harmful birds using an artificial intelligence-based detection camera according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따른 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획 시스템(100)은, 개폐 가능한 제1 게이트(160) 및 제2 게이트(170)를 포함하는 포획틀(110), 제1 게이트(160)에 설정된 제1 관심영역(180) 범위 내 유해조수의 출현을 감지하고, 개체수를 감지하는 제1 카메라(120), 및 제2 게이트(170)에 설정된 제2 관심영역(190) 범위 내 유해조수의 출현을 감지하고, 개체수를 감지하는 제2 카메라(140)를 포함한다.The system 100 for identifying and capturing harmful birds using an artificial intelligence-based detection camera according to an embodiment of the present disclosure includes a capture frame 110 including a first gate 160 and a second gate 170 that can be opened and closed. , a first camera 120 that detects the appearance of harmful tides within the range of the first region of interest 180 set in the first gate 160 , and detects the number of animals, and a second region of interest set in the second gate 170 . (190) and a second camera 140 that detects the appearance of harmful tides within the range and detects the number of individuals.

일 실시예에 따르면, 제1 및 제2 카메라(120, 140)는, 포획 대상인 유해조수의 종류별로 감지 가능하도록 학습된 인공지능 기반의 유해조수 감지 모델(또는 유해조수 판별 모델)을 저장 및 실행 가능하도록 구성될 수 있다. 예를 들어, 제1 및 제2 카메라(120, 140)은, 포획 대상인 특정 유해조수(예를 들어, 멧돼지)만을 감지하도록 학습된 인공신경망 기반의 유해조수 감지 모델을 저장 및 실행할 수 있다. 이와 같이 제1 및 제2 카메라(120, 140) 각각이 사전에 학습된 유해조수 감지 모델을 내장 및 실행 가능하도록 구현됨으로써, 카메라들(120, 140)이 포획틀에 설치되어 동작 중에 실시간으로 효율적으로 포획 대상 유해조수를 감지할 수 있다. 제1 및 제2 카메라(120, 140)는, 하나 이상의 유해조수를 포획 대상으로 설정한 경우, 각 유해조수를 감지하도록 학습된 하나 이상의 유해조수 감지 모델을 내장 및 실행할 수 있다. According to an embodiment, the first and second cameras 120 and 140 store and execute an artificial intelligence-based harmful tide detection model (or harmful tide identification model) that has been learned to detect each type of harmful tide to be captured. It can be configured to be possible. For example, the first and second cameras 120 and 140 may store and execute an artificial neural network-based harmful bird detection model trained to detect only a specific harmful bird (eg, wild boar) as a capture target. As described above, each of the first and second cameras 120 and 140 is implemented to embed and execute a pre-trained harmful tidal detection model, so that the cameras 120 and 140 are installed in the capture frame and efficiently in real time during operation. can detect harmful tides to be captured. When one or more harmful tides are set as capture targets, the first and second cameras 120 and 140 may embed and execute one or more harmful tide detection models learned to detect each harmful tide.

일 실시예에서, 제1 및 제2 카메라(120, 140)는, 각각 제1 ROI(180) 및 제2 ROI(190)를 촬영 가능하도록 설정된 렌즈를 구비할 수 있다. 또한, 제1 및 제2 카메라(120, 140) 각각은, 촬영된 사진 이미지 또는 동영상을 프레임별로 내장된 유해조수 감지 모델에 입력함으로써, 입력된 이미지 또는 동영상에 포함된 유해조수의 종류를 감지할 수 있다. 제1 및 제2 카메라(120, 140)에 의한 유해조수 감지 결과는, 통신부(130)를 통해 원격의 사용자 단말에 전송됨으로써, 사용자에게 유해조수 감지 결과에 기초한 다양한 정보 및 서비스가 제공될 수 있다. In an embodiment, the first and second cameras 120 and 140 may include lenses configured to photograph the first ROI 180 and the second ROI 190 , respectively. In addition, each of the first and second cameras 120 and 140 inputs a photographed photo image or video to a harmful tide detection model built in each frame to detect the type of harmful tide included in the input image or video. can The harmful tide detection results by the first and second cameras 120 and 140 are transmitted to a remote user terminal through the communication unit 130, so that the user can be provided with various information and services based on the harmful tide detection results. .

좀 더 구체적으로, 제1 카메라(120)는 내장된 유해조수 감지 모델을 이용하여 제1 게이트(160)를 포함하는 제1 관심영역(180) 내에서 유해조수의 출현을 감지하거나 제1 관심영역(180) 내에 포함된 유해조수의 개체수를 판별할 수 있다. 또한, 제2 카메라(140)는 내장된 유해조수 감지 모델을 이용하여 제2 게이트(170)를 포함하는 제2 관심영역(190) 내에서 유해조수의 출현을 감지하거나 제2 관심영역(190) 내에 포함된 유해조수의 개체수를 판별할 수 있다.More specifically, the first camera 120 detects the appearance of the harmful tide in the first region of interest 180 including the first gate 160 or the first region of interest using the built-in harmful tide detection model. (180) It is possible to determine the number of harmful tides contained within. In addition, the second camera 140 detects the appearance of harmful tides in the second region of interest 190 including the second gate 170 or the second region of interest 190 using the built-in harmful tide detection model. It is possible to determine the number of harmful algae contained within.

일 실시예에서, 제1 게이트(160)는, 포획대상 유해조수 중 성체가 출입 가능한 높이와 폭을 가질 수 있다. 이 경우, 제1 카메라(120)는, 성체인 유해조수를 감지하도록 학습된 유해조수 감지 모델을 내장할 수 있다. 예를 들어, 제1 카메라(120)는, 포획대상 유해조수 중 사전결정된 크기 이상인 성체를 인식하도록 구성될 수 있다. 또한, 제2 게이트(170)는, 포획대상 유해조수 중 새끼가 출입 가능한 높이와 폭을 가질 수 있다. 즉, 제2 게이트(170)의 크기는, 제1 게이트(160)의 크기보다 작도록 구성될 수 있다. 이 경우, 제2 카메라(140)는, 새끼인 유해조수를 감지하도록 학습된 유해조수 감지 모델을 내장할 수 있다. 예를 들어, 제2 카메라(140)는, 포획대상 유해조수 중 사전결정된 크기 이하인 새끼를 인식하도록 구성될 수 있다. In one embodiment, the first gate 160 may have a height and a width that allow adults to enter and exit from among the harmful birds to be captured. In this case, the first camera 120 may have a built-in harmful tide detection model that has been trained to detect an adult noxious tide. For example, the first camera 120 may be configured to recognize an adult larger than a predetermined size among harmful birds to be captured. In addition, the second gate 170 may have a height and a width that allow a baby to enter and exit from among the harmful birds to be captured. That is, the size of the second gate 170 may be configured to be smaller than the size of the first gate 160 . In this case, the second camera 140 may have a built-in harmful bird detection model learned to detect harmful birds that are babies. For example, the second camera 140 may be configured to recognize a pup smaller than a predetermined size among harmful birds to be captured.

일 실시예에서, 제1 카메라(120)는, 제1 관심영역(180) 내에서 감지된 유해조수들 중 제1 게이트(160)를 통과한 개체수가 사전 결정된 개체수를 초과 여부에 따라 제1 게이트(160)의 개폐를 제어하도록 구성될 수 있다. 또한, 제2 카메라(140)는, 제2 관심영역(190) 내에서 감지된 유해조수들 중 제2 게이트(170)를 통과한 개체수가 사전 결정된 개체수를 초과 여부에 따라 제2 게이트(170)의 개폐를 제어하도록 구성될 수 있다.In an embodiment, the first camera 120 is configured to determine whether the number of objects that have passed through the first gate 160 among the harmful birds detected in the first region of interest 180 exceeds a predetermined number of the first gate. It may be configured to control the opening and closing of 160 . In addition, the second camera 140 detects the second gate 170 according to whether the number of harmful birds detected in the second region of interest 190 that has passed through the second gate 170 exceeds a predetermined number. It may be configured to control the opening and closing of the.

이와 같이, 제1 및 게2 게이트(160, 170) 및 제1 및 제2 카메라(120, 140)을 구성함으로써, 포획대상 유해조수 중에서 성체를 먼저 제1 게이트를 통해 포획틀 내로 유도하여 포획한 후, 해당 유해조수의 새끼들을 제2 게이트를 통해 포획틀 내로 유도하여 포획할 수 있다. 이와 같은 시스템(100)의 구성은, 일반적으로 멧돼지와 같은 유해조수들이 집단으로 이동 또는 행동하며, 성체들의 주변에는 새끼들이 존재할 가능성이 높은 특성을 활용한 것이다.In this way, by configuring the first and second gates 160 and 170 and the first and second cameras 120 and 140, the adult among the harmful birds to be captured is first guided into the capture frame through the first gate and captured. Thereafter, the pups of the harmful bird can be captured by guiding them into the capture frame through the second gate. Such a configuration of the system 100, in general, harmful birds such as wild boars move or act in groups, and utilize the characteristic that young children are likely to exist in the vicinity of adults.

도시된 바와 같이, 제1 게이트(160)는, 포획틀(110)의 일 측면에 형성될 수 있으며, 제2 게이트(170)는, 포획틀(110)의 다른 측면에 형성될 수 있다. 그러나, 본 개시의 포획틀(110)의 구성은 이에 한정되는 것은 아니며, 제1 및 제2 게이트(160, 170)가 포획틀(110)의 일 측면에 함께 형성될 수도 있다. As shown, the first gate 160 may be formed on one side of the capture frame 110 , and the second gate 170 may be formed on the other side of the capture frame 110 . However, the configuration of the capture frame 110 of the present disclosure is not limited thereto, and the first and second gates 160 and 170 may be formed together on one side of the capture frame 110 .

일 실시예에서, 포획틀(110)은, 사전결정된 단위 크기의 복수의 포획틀 부품들이 상호 결합되어 구성될 수 있다. 이와 같이 포획틀(110)을 작은 단위의 포획틀 부품들로 제작함으로써, 포획대상 유해조수가 출현하는 현장까지 용이하게 운반 및 설치 가능하게 될 수 있다. 또한, 포획틀(110) 내부에는 유해조수의 접근을 유도할 수 있는 유도물질(예를 들어, 유해조수 암컷의 분비물 또는 먹이)을 사전 배치할 수 있다.In one embodiment, the capture frame 110 may be configured by coupling a plurality of capture frame parts of a predetermined unit size to each other. In this way, by manufacturing the capture frame 110 with small units of the capture frame parts, it can be easily transported and installed to the site where the harmful algae to be captured appear. In addition, in the capture frame 110, an inducing material (eg, secretions or food of a female noxious bird) that can induce access of harmful birds may be pre-arranged.

도 2는 본 개시의 일 실시예에 따른 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획 시스템의 정보를 공유하기 위해, 유해조수 식별 및 포획 시스템이 복수의 사용자 단말과 통신 가능하도록 연결된 구성을 나타내는 개요도이다.2 is a configuration in which the harmful bird identification and capture system is connected to communicate with a plurality of user terminals in order to share information of the harmful bird identification and capture system through an artificial intelligence-based detection camera according to an embodiment of the present disclosure; It is a schematic diagram showing

본 개시의 일 실시예에 따른 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획 시스템(100)은, 인공지능 기반의 감지 카메라(120, 140)를 통해 유해조수를 감지하고, 통신 네트워크(150)를 통해 외부 장치(예를 들어, 외부 사용자 단말 장치)와 통신 가능하도록 구성될 수 있다. 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획 시스템(100)은, 외부 장치와 통신 네트워크(150)를 통해 통신하여 포획틀 주변 관심영역 범위 내 감지되는 정보를 전송하거나 포획틀 제어에 대한 데이터를 수신할 수 있다. 여기서, 포획틀 주변 관심영역 범위 내 감지되는 정보 및 포획틀 제어에 대한 데이터는, 유해조수 종류의 감지 결과, 사람 감지 결과, 유해조수의 포획틀 내부 출입 여부, 포획틀의 게이트를 통과하는 유해조수 개체수, 및 포획틀 게이트 개폐 상태 등에 대한 데이터를 포함할 수 있으나, 이에 한정되지 않는다. The system 100 for identifying and capturing harmful tides through an AI-based detection camera according to an embodiment of the present disclosure detects harmful tides through the AI-based detection cameras 120 and 140, and the communication network 150 ) may be configured to communicate with an external device (eg, an external user terminal device). The system 100 for identifying and capturing harmful birds through an artificial intelligence-based detection camera communicates with an external device through the communication network 150 to transmit information detected within the area of interest around the capture frame or data on control of the capture frame. can receive Here, the information detected within the region of interest around the capture frame and the data on the capture frame control are the detection result of the type of harmful tide, the human detection result, whether the harmful tide enters the capture frame, and the harmful tide passing through the gate of the capture frame. It may include, but is not limited to, data on the number of individuals and the opening/closing state of the capture frame gate.

일 실시예에 따르면, 제1 카메라(120) 및 제2 카메라(140) 중 적어도 하나는, 외부 사용자 단말 장치로부터 포획 대상인 유해조수의 종류 및 개체수 중 적어도 하나에 관한 정보를 수신할 수 있다. 또한, 제1 카메라(120) 및 제2 카메라(140) 중 적어도 하나는, 수신된 유해조수의 종류 및 개체수에 기초하여, 제1 관심영역 또는 상기 제2 관심영역 내에서의 유해조수의 출현 또는 개체수를 감지하도록 구성될 수 있다. 또한, 제1 카메라(120) 및 제2 카메라(140) 중 적어도 하나는, 외부 사용자 단말 장치로, 제1 관심영역 또는 제2 관심영역 내에서 감지된 유해조수의 출현 또는 개체수에 관한 정보를 전송하도록 구성될 수 있다.According to an embodiment, at least one of the first camera 120 and the second camera 140 may receive information about at least one of the type and number of harmful birds to be captured from the external user terminal device. In addition, at least one of the first camera 120 and the second camera 140 may determine whether or not the appearance of the harmful tide in the first ROI or the second ROI is determined based on the received type and number of the harmful tidal current. It may be configured to detect a population. In addition, at least one of the first camera 120 and the second camera 140 transmits, to the external user terminal device, information on the appearance or number of harmful birds detected in the first region of interest or the second region of interest. can be configured to

일 실시예에 따르면, 유해조수 식별 및 포획 시스템(100)은, 네트워크(150)를 통해 유해조수 정보 및 포획틀 제어 정보를 외부 장치와 주기적으로 또는 비주기적으로 송수신 할 수 있다. 도 2에서 인공지능 기반의 감지 카메라(120, 140)가 네트워크(150)를 통해 외부 장치와 통신하는 예로서 도시되었으나, 이에 한정되지 않으며, 유해조수 식별 및 포획 시스템(100)에서 인공지능 기반의 감지 카메라(120, 140)는 외부 사용자 단말 장치와 유선 및/또는 무선 통신이 가능하고 포획틀에 대한 데이터를 수신할 수 있는 임의의 컴퓨팅 장치를 포함할 수 있다. 즉, 포획틀이 설치된 현장에서 제1 카메라(120) 또는 제2 카메라(140)는, 포획틀 주변의 제1 관심영역 또는 제2 관심영역 내에서 유해조수의 출현 및 개체수(예를 들어, 총5마리)를 감지하여 외부 사용자 단말장치(예를 들어, 스마트폰)으로 전송한다. 이와 같은 정보를 수신한 외부 사용자 단말장치에서는, 예를 들어 제1 카메라(120) 또는 제2 카메라(140)에 의해 전송된 유해조수의 개체수(즉, 5마리)가 포획대상임을 확인한 사용자가 해당 유해조수의 개체수(즉, 5마리)를 입력하고, 사용자 단말은 해당 정보를 제1 카메라(120) 또는 제2 카메라(140)로 전송한다. 이에 따라 제1 카메라(120) 또는 제2 카메라(140)는, 수신된 유해조수의 개체수를 기초로 사전 결정된 성체 또는 새끼의 개체수(예를 들어, 4마리)를 설정할 수 있다. 또한, 제1 카메라(120) 또는 제2 카메라(140)는, 제1 관심영역 또는 제2 관심영역 범위 내 유해조수의 개체수를 감지하고, 제1 게이트 또는 제2 게이트를 통과한 개체수가 사전 결정된 개체수를 초과하는 경우(즉, 게이트를 통과한 개체수가 사전 결정된 개체수인 4마리를 초과하여 5마리가 되는 경우), 포획틀 근처에 존재하는 모든 유해조수가 포획틀 안에 진입함을 확인하고, 제1 게이트 또는 제2 게이트를 폐쇄하도록 제어할 수 있다.According to an embodiment, the harmful tide identification and capture system 100 may periodically or aperiodically transmit/receive harmful tide information and capture frame control information to and from an external device through the network 150 . In FIG. 2 , the AI-based detection cameras 120 and 140 are illustrated as an example of communicating with an external device through the network 150 , but the present invention is not limited thereto. The detection cameras 120 and 140 may include any computing device capable of wired and/or wireless communication with an external user terminal device and capable of receiving data about the capture frame. That is, in the field where the capture frame is installed, the first camera 120 or the second camera 140 determines the appearance and number of harmful algae (eg, the total number of harmful algae in the first or second area of interest around the capture frame). 5) is detected and transmitted to an external user terminal device (eg, a smartphone). In the external user terminal device that has received such information, for example, a user who has confirmed that the number of harmful birds (ie, 5) transmitted by the first camera 120 or the second camera 140 is the target of the capture. The number of harmful birds (ie, 5) is input, and the user terminal transmits the corresponding information to the first camera 120 or the second camera 140 . Accordingly, the first camera 120 or the second camera 140 may set a predetermined number of adults or pups (eg, four) based on the received number of harmful birds. In addition, the first camera 120 or the second camera 140 detects the number of noxious birds within the range of the first region of interest or the second region of interest, and determines the number of individuals passing through the first gate or the second gate. In case of exceeding the population (that is, when the number of individuals passing through the gate exceeds the predetermined number of 4 and becomes 5), it is confirmed that all harmful algae existing near the trap enter the trap, and It can be controlled to close the first gate or the second gate.

네트워크(150)는, 인공지능 기반의 감지 카메라(120, 140)와 외부 사용자 단말 장치 사이의 통신이 가능하도록 구성될 수 있다. 네트워크(150)는 설치 환경에 따라, 예를 들어, 이더넷(Ethernet), 유선 홈 네트워크(Power Line Communication), 전화선 통신 장치 및 RS-serial 통신 등의 유선 네트워크, 이동통신망, WLAN(Wireless LAN), Wi-Fi, Bluetooth 및 ZigBee 등과 같은 무선 네트워크 또는 그 조합으로 구성될 수 있다.The network 150 may be configured to enable communication between the AI-based detection cameras 120 and 140 and an external user terminal device. Network 150 according to the installation environment, for example, Ethernet (Ethernet), wired home network (Power Line Communication), telephone line communication device and wired networks such as RS-serial communication, mobile communication network, WLAN (Wireless LAN), It may consist of wireless networks such as Wi-Fi, Bluetooth and ZigBee, or a combination thereof.

일 실시예에 따르면, 유해조수 식별 및 포획 시스템(100)은, 유해조수 종류, 개체수 및 출입 개체수에 기초하여 포획틀의 제어 및 유해조수 포획 상태 정보 제공 서비스 제공과 관련된 컴퓨터 실행 가능한 프로그램 및 데이터를 저장, 제공 및 실행할 수 있는 하나 이상의 서버 장치 및/또는 데이터베이스, 또는 클라우드 컴퓨팅 서비스 기반의 하나 이상의 분산 컴퓨팅 장치 및/또는 분산 데이터베이스를 포함할 수 있다. 예를 들어, 유해조수 식별 및 포획 시스템(100) 또는 인공지능 기반의 감지 카메라(120, 140)은, 유선 또는 무선 네트워크를 통해 다른 장치와 통신할 수 있는 컴퓨팅 장치로서, CPU(central processing unit), GPU(graphic processing unit), DSP(digital signal processor) 등과 같은 처리 장치를 이용하여 연산 동작을 수행할 수 있는 컴퓨팅 장치를 포함할 수 있으나, 이에 한정되는 것은 아니다.According to an embodiment, the system 100 for identifying and capturing harmful birds provides computer-executable programs and data related to the control of the trapping frame and the provision of information on the state of capturing harmful birds based on the type, number, and entry of harmful birds. It may include one or more server devices and/or databases capable of storing, providing and executing, or one or more distributed computing devices and/or distributed databases based on cloud computing services. For example, the harmful tide identification and capture system 100 or AI-based detection cameras 120 and 140 are computing devices that can communicate with other devices through a wired or wireless network, and include a central processing unit (CPU). , a computing device capable of performing an arithmetic operation using a processing device such as a graphic processing unit (GPU), a digital signal processor (DSP), etc., but is not limited thereto.

인공지능 기반의 감지 카메라(120, 140)는, 유해조수 식별 및 포획 시스템(100) 내에 설치된 포획틀 또는 그 주변의 관심영역을 촬영한 이미지 또는 영상에 기초하여, 유해조수의 출현, 유해조수의 개체수, 유해조수의 포획틀 출입 여부 등을 감지하도록 학습된 하나 이상의 인공지능 기반의 유해조수 감지 모델을 내장 및 실행하도록 구성될 수 있다. 인공지능 기반의 감지 카메라(120, 140)은, 사용자 단말기(210 내지 230)로부터 수신된 포획 대상 유해조수의 종류에 대한 정보를 수신하고, 수신된 유해조수 종류에 기초하여 복수의 유해조수 감지 모델 중 어느 하나를 선택 및 실행함으로써, 사용자가 포획대상으로 설정한 유해조수의 출현 등을 보다 정확하게 판단할 수 있다. 외부 사용자 단말 장치와 통신을 통해 유해조수의 감지 및 포획틀 제어를 실행하는 구성 및 과정에 대해서는 이하에서, 도 3을 참조하여 상세히 설명한다.The artificial intelligence-based detection cameras 120 and 140, based on the image or image taken of the capture frame installed in the system 100 for identifying and capturing harmful algae, or the region of interest around it, detects the appearance of harmful tides and the detection of harmful tides. It may be configured to embed and execute one or more artificial intelligence-based harmful tide detection models that have been trained to detect the number of individuals and whether or not the harmful tide enters the trapping frame. The AI-based detection cameras 120 and 140 receive information on the type of the target harmful tide received from the user terminals 210 to 230, and based on the received type of harmful tide, a plurality of harmful tide detection models By selecting and executing any one of them, it is possible to more accurately determine the appearance of the harmful tide set by the user as a capture target. The configuration and process of detecting harmful tidal water and controlling the trapping frame through communication with an external user terminal device will be described in detail below with reference to FIG. 3 .

도 3은 본 개시의 일 실시예에 따른 인공지능 기반의 감지 카메라의 내부 구성을 나타내는 블록도이다.3 is a block diagram illustrating an internal configuration of an artificial intelligence-based detection camera according to an embodiment of the present disclosure.

이하에서는 인공지능 기반의 감지 카메라(300)가 유해조수 판별이 가능하도록 학습된 유해조수 판별 모델을 저장 및 실행함으로써, 포획틀 근처에 설정된 관심영역 또는 포획틀 내부에 존재하는 유해조수의 종류 또는 개체수를 판단하는 구성 및 과정에 대해서 상세히 설명된다. 일 실시예에서, 인공지능 기반의 감지 카메라(300)는 도 3에 도시된 바와 같이, 통신부(380), 전원부(390), 이미지 센서(320), 프로세서(340) 및 저장부(360)를 포함하도록 구성될 수 있다.Hereinafter, the artificial intelligence-based detection camera 300 stores and executes the learned harmful tide identification model to be able to identify harmful tides, so that the region of interest set near the capture frame or the number or types of harmful tides existing in the capture frame. The configuration and process for determining the will be described in detail. In one embodiment, as shown in FIG. 3 , the AI-based detection camera 300 includes a communication unit 380 , a power supply unit 390 , an image sensor 320 , a processor 340 and a storage unit 360 . can be configured to include.

통신부(380)는, 네트워크(150)를 통해 유해조수 판별 결과를 외부 사용자 단말 장치로 전송하거나, 사용자 단말 장치로부터 유해조수 및 포획틀 제어여부에 대한 데이터를 수신하도록 구성될 수 있다. 일 실시예에 따르면, 통신부(380)는 미리 설정된 유해조수 및 포획틀 제어여부에 대한 데이터를 외부 사용자 단말장치로부터 수신할 수 있다. 여기서, 유해조수 및 포획틀 제어여부에 대한 데이터는, 카메라(300)에 의해 판별될 유해조수의 종류, 사람 감지 여부, 유해조수의 포획틀 내부 출입 여부, 포획틀 게이트 개폐 상태 등과 관련된 데이터를 포함할 수 있으나, 이에 한정되지 않는다. 예를 들어, 유해조수 및 포획틀 제어여부에 대한 데이터는, 포획틀 내의 사람의 침입 시 경고 알림 등과 같이 포획틀 및 관심영역 범위와 관련된 다양한 정보를 더 포함할 수 있다. 또한, 통신부(380)는 수신한 데이터를 저장부(360)로 제공할 수 있고, 프로세서(340)에 의해 판별된 유해조수에 대한 정보 또는 그러한 정보를 분석 또는 가공한 정보를 네트워크(150)를 통해 외부 사용자 단말장치로 송신하도록 구성될 수 있다. The communication unit 380 may be configured to transmit the harmful tide determination result to an external user terminal device through the network 150 or to receive data on whether to control the harmful tide and capture frame from the user terminal device. According to an embodiment, the communication unit 380 may receive preset data on whether to control the harmful tide and the trapping frame from the external user terminal device. Here, the data on whether the harmful tide and the capture frame are controlled include data related to the type of harmful tide to be determined by the camera 300, whether a person is detected, whether or not the harmful tide enters the capture frame, and the opening and closing state of the capture frame gate can, but is not limited thereto. For example, the data on whether harmful tides and the capture frame are controlled may further include various information related to the capture frame and the range of the region of interest, such as a warning notification when a person enters the capture frame. In addition, the communication unit 380 may provide the received data to the storage unit 360 , and transmit information on harmful tides determined by the processor 340 or information analyzed or processed such information to the network 150 . It may be configured to transmit to an external user terminal device through the

전원부(390)는 자연광인 태양열 에너지를 전기 에너지로 변환시켜 카메라(300)의 배터리를 충전하고, 전원부(390)에서 출력되는 전압(Vcc)을 승압시켜 카메라(300)의 이미지 센서(320), 프로세서(340), 저장부(360) 및 통신부(380)로 공급한다.The power supply unit 390 converts solar thermal energy, which is natural light, into electrical energy to charge the battery of the camera 300, and boosts the voltage (Vcc) output from the power supply unit 390 to the image sensor 320 of the camera 300, It is supplied to the processor 340 , the storage unit 360 , and the communication unit 380 .

전원부(390)는 태양열 에너지를 전기 에너지로 변환시키는 다수의 태양전지(SOLAR)로 구성되어 있는데, 태양전지(SOLAR)에 의해 전기 에너지로 변환된 태양열 에너지는 카메라(300) 배터리(CHARGE)에 충전된다. 이와 같이 배터리(CHARGE)에 충전된 전기 에너지가 이미지 센서(320), 프로세서(340), 저장부(360) 및 통신부(380)의 구동전원으로 사용되게 된다.The power supply unit 390 is composed of a plurality of solar cells SOLAR that converts solar thermal energy into electrical energy, and the solar thermal energy converted into electrical energy by the solar cells SOLAR is charged to the camera 300 battery CHARGE. do. As described above, the electric energy charged in the battery CHARGE is used as driving power for the image sensor 320 , the processor 340 , the storage unit 360 , and the communication unit 380 .

프로세서(340)는 CPU(central processing unit), GPU(graphic processing unit), DSP(digital signal processor), FPGA (Field Programmable Gate Array), ASIC (Application Specific Integrated Circuit) 중 적어도 하나를 포함하여 임의의 연산 동작을 수행하고, 외부 장치로부터 수신된 데이터 및/또는 수신된 데이터를 분석 또는 가공한 데이터를 관리, 처리 및/또는 저장부(360)에 저장하도록 구성될 수 있다.The processor 340 includes at least one of a central processing unit (CPU), a graphic processing unit (GPU), a digital signal processor (DSP), a field programmable gate array (FPGA), and an application specific integrated circuit (ASIC). It may be configured to perform an operation and manage, process, and/or store data received from an external device and/or data obtained by analyzing or processing the received data in the storage unit 360 .

프로세서(340)는 외부 장치로부터 수신한 유해조수 판별 모델에 대한 데이터를 저장부(360)에 저장할 수 있다. 저장부(360)에 저장된 유해조수 판별 모델은, 카메라(300)에 의해 판별되는 유해조수의 종류에 따라 하나 또는 복수 개로 저장될 수 있다. 예를 들어, 카메라(300)가 한 종류의 유해조수(예를 들어, 멧돼지)를 판별하도록 설정된 경우, 저장부(360)는 멧돼지를 판별하도록 학습된 유해조수 판별모델을 저장할 수 있다. 다른 예에서, 카메라가 복수의 종류의 유해조수(예를 들어, 멧돼지, 고라니 등)을 판별하도록 설정된 경우, 저장부(360)는 복수 종류의 유해조수 각각을 판별하도록 학습된 유해조수 판별모델들을 모두 저장할 수도 있다.The processor 340 may store data on the harmful tide determination model received from the external device in the storage unit 360 . One or a plurality of harmful tide identification models stored in the storage unit 360 may be stored according to the type of harmful tide determined by the camera 300 . For example, when the camera 300 is set to determine one type of harmful tide (eg, wild boar), the storage unit 360 may store the harmful tide identification model learned to identify the wild boar. In another example, when the camera is set to discriminate a plurality of types of harmful tides (eg, wild boar, elk, etc.), the storage unit 360 uses the harmful tide identification models learned to identify each of the plurality of types of harmful tides. You can also save them all.

프로세서(340)는 이미지 센서(320)에 의해 촬영된 이미지 또는 영상을 저장부(380)에 저장된 유해조수 판별 모델을 이용하여 판별하고, 해당 판별 결과를 통신부(380)를 통해 외부 사용자 단말 장치로 전송할 수 있다. The processor 340 determines the image or image captured by the image sensor 320 using the harmful tide determination model stored in the storage unit 380 , and transmits the determination result to an external user terminal device through the communication unit 380 . can be transmitted

저장부(360)에 저장되어 프로세서(340)에 의해 실행되는 유해조수 판별 모델은, 머신러닝 알고리즘을 통해 미리 학습될 수 있다. 유해조수 판별 모델을 학습하는데 사용되는 머신러닝 알고리즘은, 인공 신경 회로망(Artificial Neural Network), 딥러닝(Deep Learning), 의사 결정 트리(Decision Tree) 등과 같은 기계학습 또는 인공신경망 기반의 이미지 식별 모델 중 하나일 수 있으나, 이에 한정되지 않는다. The harmful tide determination model stored in the storage unit 360 and executed by the processor 340 may be previously learned through a machine learning algorithm. The machine learning algorithm used to learn the harmful tidal identification model is one of machine learning or artificial neural network-based image identification models such as artificial neural networks, deep learning, and decision trees. It may be one, but is not limited thereto.

도 4는 본 개시의 일 실시예에 따라 유해조수 이미지 또는 영상을 유해조수 종류로 분류하도록 학습된 인공신경망을 포함하는 유해조수 판별 모델의 구성을 나타내는 도면이다. 4 is a diagram illustrating a configuration of a harmful tide identification model including an artificial neural network trained to classify a harmful tide image or image into a harmful tide type according to an embodiment of the present disclosure.

유해조수 판별 모델(440)은, 외부 컴퓨팅 장치에 의해 생성, 저장 또는 업데이트되어, 도 3에 도시된 프로세서(340)에 의해 실행될 수 있다. 도시된 바와 같이, 유해조수 판별 모델(430)은, 입력 유해조수 이미지(410, 420)를 해당 유해조수의 성체 또는 새끼(440)로 분류하는 인공신경망 모델(432)을 포함할 수 있다.The harmful tide determination model 440 may be generated, stored, or updated by an external computing device, and may be executed by the processor 340 illustrated in FIG. 3 . As shown, the harmful tide identification model 430 may include an artificial neural network model 432 that classifies the input harmful tide images 410 and 420 into adults or offspring 440 of the corresponding harmful tide.

인공신경망 모델(432)은 유해조수 이미지(410, 420) 또는 그 시각적 특징을 입력으로 하여, 복수의 유해조수의 종류(예를 들어, 특정 유해조수의 성체 또는 새끼)(440)에 대한 연관 점수(450)를 산출할 수 있다. 인공신경망 모델(432)은 유해조수 이미지 및 영상 데이터베이스(미도시)로부터 추출된 학습데이터를 이용하여, 유해조수 이미지(410, 420)에 대한 복수의 유해조수 종류(440)의 연관 점수(450)를 산출하도록 학습될 수 있다. 유해조수 이미지 및 영상 데이터베이스로부터 추출된 학습데이터는, 예를 들어, 복수의 유해조수 이미지 각각과 연관된 복수의 유해조수 종류의 쌍을 포함할 수 있다.The artificial neural network model 432 receives the harmful tide images 410 and 420 or its visual features as input, and the association score for a plurality of types of harmful birds (eg, adults or offspring of specific harmful birds) 440 . (450) can be calculated. The artificial neural network model 432 uses the learning data extracted from the harmful tide image and image database (not shown), and the association score 450 of the plurality of harmful tide types 440 for the harmful tide images 410 and 420. can be learned to yield . The learning data extracted from the harmful tide image and image database may include, for example, pairs of a plurality of harmful tide types associated with each of the plurality of harmful tide images.

인공신경망 모델(432)은, 산출된 연관 점수들(450)에 기초하여, 유해조수 이미지(410, 420)와 연관되는 하나 이상의 유해조수 종류 정보를 출력할 수 있다. 일 실시예에서, 인공신경망 모델(432)은, 사전 결정된 임계치(예를 들어, 0.5)를 초과하는 하나 이상의 유해조수의 종류 정보를 유해조수 종류들(440)로부터 선택하여 출력할 수 있다.The artificial neural network model 432 may output information on one or more harmful tide types associated with the harmful tide images 410 and 420 based on the calculated association scores 450 . In an embodiment, the artificial neural network model 432 may select and output information on the types of one or more harmful tides exceeding a predetermined threshold (eg, 0.5) from the harmful tide types 440 .

도 5는 본 개시의 일 실시예에 따른 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획 방법을 나타내는 흐름도이다.5 is a flowchart illustrating a method for identifying and capturing harmful birds using an artificial intelligence-based detection camera according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따른 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획 방법은, 특정 종류의 유해조수의 출현을 감지하는 단계(S510)로 개시될 수 있다. 일 실시예에 따르면, 제1 카메라에 의해, 개폐 가능한 제1 게이트 및 제2 게이트를 포함하는 포획틀에 있어서, 제1 게이트에 인접하여 설정된 제1 관심영역 범위 내 유해조수의 성체의 출현을 감지할 수 있다. 또한, 제2 카메라에 의해, 제2 게이트에 인접하여 설정된 제2 관심영역 범위 내 유해조수의 새끼의 출현을 감지할 수 있다.The method for identifying and capturing harmful birds using an artificial intelligence-based detection camera according to an embodiment of the present disclosure may begin with the step ( S510 ) of detecting the appearance of a specific type of harmful birds. According to an embodiment, in a capture frame including a first gate and a second gate that can be opened and closed by the first camera, the appearance of an adult of harmful birds within a range of a first region of interest set adjacent to the first gate is detected. can do. In addition, the second camera may detect the appearance of offspring of harmful birds within the range of the second region of interest set adjacent to the second gate.

다음으로, 사용자가 사전에 설정한 지정 ROI(Region of Interest) 범위 내 지정 식별 대상을 판별하는 단계(S520)가 실행될 수 있다. 지정 식별 대상으로 판별되는 경우, 식별 대상의 성체 또는 새끼를 판별하는 단계(S532, S534), 성체 또는 새끼를 판별하고, 판별된 개체에 따른 개체수를 판별하는 단계(S542, S544), 포획틀 내부에 사용자가 지정한 개체수를 판별하는 단계(S560) 및 포획틀 내부에 지정한 개체수가 확인되면 포획틀의 게이트를 닫아서 포획하는 단계(S570)가 실행될 수 있다.Next, a step ( S520 ) of determining a designated identification target within a preset region of interest (ROI) range set by the user may be performed. When it is determined as the designated identification target, the steps of determining the adult or offspring of the identification target (S532, S534), determining the adult or offspring, and determining the number of individuals according to the determined individual (S542, S544), inside the capture frame In step S560 of determining the number of individuals designated by the user, and when the number of individuals designated inside the capture frame is confirmed, the step of capturing by closing the gate of the capture frame (S570) may be executed.

상술한 바와 같이, 유해조수에 대한 사용자 지정 정보 및 딥러닝을 통한 학습을 적극 활용하여 포획틀 제어를 처리함으로써, 사용자는 포획 대상인 특정 종류의 유해조수를 효율적으로 포획 및 관리하는 것이 가능하다.As described above, by actively utilizing the user-specified information on harmful tidal currents and learning through deep learning to process the trapping frame control, the user can efficiently capture and manage a specific type of harmful tidal target to be captured.

도 6은 본 개시의 일 실시예에 따른 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획을 제어하기 위한 사용자 단말 장치의 사용자 인터페이스의 예시를 보여주는 도면이다.6 is a diagram illustrating an example of a user interface of a user terminal device for controlling identification and capture of harmful birds through an artificial intelligence-based detection camera according to an embodiment of the present disclosure.

도시된 바와 같이, 사용자 단말 장치의 사용자 인터페이스(600)는 식별 대상 유해조수의 종류의 지정을 위한 사용자 인터페이스(620) 및 포획 대상 유해조수의 개체수의 지정을 위한 사용자 인터페이스(640)를 포함한다.As shown, the user interface 600 of the user terminal device includes a user interface 620 for specifying the type of the harmful bird to be identified and a user interface 640 for specifying the number of the target harmful bird to be captured.

사용자는 사용자 인터페이스(620)를 통해, 특정 종류의 유해조수(예컨대, 멧돼지, 고라니, 두더지 등)를 선택할 수 있다. 이와 같이 선택된 유해조수의 종류에 관한 정보는, 사용자 단말 장치로부터 포획틀에 설치된 카메라들 중 적어도 하나로 전송될 수 있다. 유해조수의 종류에 관한 정보를 수신한 카메라는, 해당 유해조수를 감지 또는 판별하도록 학습된 인공지능 기반의 유해조수 판별 모델을 이용하여 포획틀 주변의 지정된 관심영역 내에서 해당 유해조수의 출현, 포획틀에 설치된 게이트를 통과한 유해조수의 개체수 등을 감지 및 판별할 수 있다.The user may select a specific type of harmful tide (eg, wild boar, elk, mole, etc.) through the user interface 620 . The information on the selected type of harmful tidal water may be transmitted from the user terminal device to at least one of the cameras installed in the capture frame. The camera, receiving the information on the type of harmful tide, uses an artificial intelligence-based harmful tide identification model that has been trained to detect or identify the harmful tide, and the occurrence and capture of the harmful tide within the designated area of interest around the capture frame. It is possible to detect and determine the number of harmful tides that have passed through the gate installed in the frame.

또한, 사용자는 사용자 인터페이스(640)를 통해, 포획 대상 해조수의 개체수를 선택할 수 있다. 이와 같이 선택된 유해조수의 개체수 관한 정보는, 사용자 단말 장치로부터 포획틀에 설치된 카메라들 중 적어도 하나로 전송될 수 있다. 유해조수의 개체수에 관한 정보를 수신한 카메라는, 해당 유해조수를 감지 또는 판별하도록 학습된 인공지능 기반의 유해조수 판별 모델을 이용하여 포획틀 주변의 지정된 관심영역 내에 출현했다가 포획틀에 설치된 게이트를 통과한 유해조수의 개체수를 감지 및 판별할 수 있다. 이와 같이 감지된 유해조수의 개체수에 기초하여, 카메라는 해당 게이트의 개폐를 제어할 수 있다.Also, the user may select the number of seaweeds to be captured through the user interface 640 . The information on the number of the selected noxious birds may be transmitted from the user terminal device to at least one of the cameras installed in the capture frame. The camera, which received the information on the number of harmful tides, appeared in the designated area of interest around the capture frame and then installed in the capture frame using an artificial intelligence-based harmful tide identification model learned to detect or identify the harmful tide. It is possible to detect and determine the number of harmful tides that have passed through. Based on the number of detected harmful tides, the camera may control opening and closing of the corresponding gate.

이상 설명한 바와 같이, 사용자는 사용자 단말 장치를 통해 포획대상인 유해조수의 종류와 개체수를 선택적으로 설정함으로써, 원하는 종류의 유해조수를 효과적으로 포획할 수 있다.As described above, the user can effectively capture a desired type of harmful tide by selectively setting the type and number of harmful birds to be captured through the user terminal device.

도 7은 본 개시의 일 실시예에 따른 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획을 제어하기 위한 사용자 단말 장치에 지정된 식별 유해조수의 출현을 보여주는 도면이다. 도 8은 본 개시의 일 실시예에 따른 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획을 제어하기 위한 사용자 단말 장치에 식별 유해조수의 포획틀 출입을 보여주는 도면이다. 도 9는 본 개시의 일 실시예에 따른 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획을 제어하기 위한 사용자 단말 장치에 지정된 개체수의 식별 및 유해조수 포획을 보여주는 도면이다.7 is a view showing the appearance of identified harmful birds designated in a user terminal device for controlling identification and capture of harmful birds through an artificial intelligence-based detection camera according to an embodiment of the present disclosure. FIG. 8 is a view showing entry and exit of a trapping frame of identified harmful birds to a user terminal device for controlling identification and capture of harmful birds through an artificial intelligence-based detection camera according to an embodiment of the present disclosure. 9 is a diagram illustrating identification and capture of a number of individuals designated in a user terminal device for controlling identification and capture of harmful birds through an artificial intelligence-based detection camera according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따른 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획을 제어하기 위한 사용자 단말 장치의 사용자 인터페이스 작동은 도 7 내지 도 9에 도시된 바와 같이, 사용자에 의해 지정된 식별 대상의 유해조수의 ROI 범위 내 출현을 감지(700), 식별 대상의 유해조수 포획틀 출입 확인(800) 및 미리 설정된 개체수가 포획틀 내부에 포획되면 포획틀 게이트를 닫아서 포획 완료(900)를 사용자의 단말 장치를 통해 확인 및 사용자 인터페이스를 통해 제어할 수 있다.As shown in FIGS. 7 to 9 , the operation of the user interface of the user terminal device for controlling the identification and capture of harmful birds through the AI-based detection camera according to an embodiment of the present disclosure is an identification target designated by the user. Detects the appearance of harmful birds within the ROI range of the harmful bird (700), checks the entry and exits from the harmful bird capture frame of the identification target (800), and when a preset number of individuals is captured inside the capture frame, close the capture frame gate to complete the capture (900) at the user's discretion It can be checked through a terminal device and controlled through a user interface.

본 명세서에서는 본 개시가 일부 실시예들과 관련하여 설명되었지만, 본 개시의 발명이 속하는 기술분야의 통상의 기술자가 이해할 수 있는 본 개시의 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다. 또한, 그러한 변형 및 변경은 본 명세서에 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다.Although the present disclosure has been described in connection with some embodiments herein, various modifications and changes may be made without departing from the scope of the present disclosure that can be understood by those skilled in the art to which the present disclosure pertains. Further, such modifications and variations are intended to fall within the scope of the claims appended hereto.

100 : 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획 시스템
110 : 포획틀
120 : 제1 카메라
130 : 통신부
140 : 제2 카메라
150 : 네트워크
160 : 제1 게이트
170 : 제2 게이트
180: 제1 ROI
190 : 제2 ROI
210 : 스마트 폰
220 : 테블릿
230 : PC
300 : 인공지능 기반의 감지 카메라
320 : 이미지 센서
340 : 프로세서
360 : 저장부
380 : 통신부
390 : 전원부
410, 420 : 유해조수 이미지
430 : 유해조수 판별 모델
432 : 인공신경망 모델
440 : 유해조수 성체 또는 새끼 분류 모델
450 : 산출 점수
500 : 인공지능 기반의 감지 카메라를 통한 유해조수 식별 및 포획 방법
600 : 사용자 인터페이스
620 : 식별 대상 유해조수 지정 항목
640 : 포획 대상 유해조수 개체수 지정 항목
100: Harmful tide identification and capture system through an artificial intelligence-based detection camera
110: capture frame
120: first camera
130: communication department
140: second camera
150: network
160: first gate
170: second gate
180: first ROI
190: second ROI
210: Smartphone
220: tablet
230: PC
300: AI-based detection camera
320: image sensor
340: processor
360: storage
380: communication department
390: power supply
410, 420: Harmful tide image
430: harmful tide identification model
432: artificial neural network model
440: noxious algae adult or offspring classification model
450: calculated score
500: Harmful tide identification and capture method through AI-based detection camera
600 : user interface
620: Items designated as hazardous tides for identification
640: Items for specifying the number of harmful birds to be captured

Claims (10)

인공지능 기반의 선택객체 감지 카메라를 통한 유해조수 식별 및 포획 시스템에 있어서,
개폐 가능한 제1 게이트 및 제2 게이트를 포함하는 포획틀;
상기 제1 게이트에 인접하여 설정된 제1 관심영역 범위 내 유해조수의 성체의 출현 및 개체수를 감지하고, 상기 유해조수의 성체들 중 상기 제1 게이트를 통과한 개체수가 사전 결정된 성체의 개체수 이하인 경우, 상기 제1 게이트를 개방된 상태를 유지하고, 상기 제1 게이트를 통과한 개체수가 상기 사전 결정된 성체의 개체수를 초과하는 경우, 상기 제1 게이트를 폐쇄하도록 제어하는 제1 카메라; 및
상기 제2 게이트에 인접하여 설정된 제2 관심영역 범위 내 유해조수의 새끼의 출현 및 개체수를 감지하고, 상기 유해조수의 새끼들 중 상기 제2 게이트를 통과한 개체수가 사전 결정된 새끼의 개체수 이하인 경우, 상기 제2 게이트를 개방된 상태를 유지하고, 상기 제2 게이트를 통과한 개체수가 상기 사전 결정된 새끼의 개체수를 초과하는 경우, 상기 제2 게이트를 폐쇄하도록 제어하는 제2 카메라를 포함하고,
상기 제1 카메라 및 상기 제2 카메라 중 적어도 하나는, 외부 사용자 단말 장치로, 상기 제1 관심영역 또는 상기 제2 관심영역 내에서 감지된 유해조수의 출현 및 개체수에 관한 정보를 전송하도록 구성되며,
상기 제1 카메라 및 상기 제2 카메라 중 적어도 하나는, 상기 외부 사용자 단말 장치로부터 포획 대상인 유해조수의 종류 및 개체수에 관한 정보를 수신하고, 상기 수신된 유해조수의 종류를 상기 유해조수의 성체 또는 상기 유해조수의 새끼의 종류로 설정하고, 상기 수신된 유해조수의 개체수를 기초로 상기 사전 결정된 성체의 개체수 또는 상기 사전 결정된 새끼의 개체수로 설정하며,
상기 제1 카메라 및 상기 제2 카메라 중 적어도 하나는, 상기 수신된 유해조수의 종류 및 개체수에 기초하여, 상기 제1 관심영역 또는 상기 제2 관심영역 내에서의 유해조수의 출현 또는 개체수를 감지하는, 유해조수 식별 및 포획 시스템.
In the system for identifying and capturing harmful tides through an artificial intelligence-based selective object detection camera,
a trapping frame including an openable and openable first gate and a second gate;
When detecting the appearance and number of adults of noxious birds within a range of a first region of interest set adjacent to the first gate, and the number of adults of noxious birds passing through the first gate is less than or equal to a predetermined number of adults, a first camera that maintains the first gate in an open state and controls to close the first gate when the number of individuals passing through the first gate exceeds the predetermined number of adults; and
If the number of offspring of harmful birds is detected within a range of a second region of interest set adjacent to the second gate, and the number of offspring of the harmful birds that have passed through the second gate is less than or equal to a predetermined number of offspring, a second camera that maintains the second gate in an open state, and controls to close the second gate when the number of individuals passing through the second gate exceeds the predetermined number of offspring;
At least one of the first camera and the second camera is configured to transmit, to an external user terminal device, information on the appearance and number of noxious birds detected in the first region of interest or the second region of interest,
At least one of the first camera and the second camera receives information on the type and number of the noxious bird to be captured from the external user terminal device, and determines the type of the received noxious bird as an adult of the noxious bird or the Set as the type of the offspring of harmful birds, and set the predetermined number of adults or the predetermined number of offspring based on the received number of harmful birds,
At least one of the first camera and the second camera is configured to detect the appearance or number of noxious birds in the first region of interest or the second region of interest, based on the received type and number of harmful birds. , Hazardous Tide Identification and Capture Systems.
제1항에 있어서,
상기 제1 게이트는 상기 제2 게이트보다 더 넓은 면적을 갖도록 구성된, 유해조수 식별 및 포획 시스템.
According to claim 1,
and the first gate is configured to have a larger area than the second gate.
제1항에 있어서,
상기 제1 카메라 및 제2 카메라 중 적어도 하나는 상기 유해조수를 감지하도록 학습된 인공지능 기반의 유해조수 판별 모델을 저장 및 실행하도록 구성된, 유해조수 식별 및 포획 시스템.
According to claim 1,
at least one of the first camera and the second camera is configured to store and execute an artificial intelligence-based harmful tide identification model trained to detect the harmful tide.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 인공지능 기반의 선택객체 감지 카메라를 통한 유해조수 식별 및 포획 방법에 있어서,
제1 카메라에 의해, 개폐 가능한 제1 게이트 및 제2 게이트를 포함하는 포획틀에 있어서, 상기 제1 게이트에 인접하여 설정된 제1 관심영역 범위 내 유해조수의 성체의 출현을 감지하는 단계;
상기 제1 카메라에 의해, 외부 사용자 단말 장치로, 상기 제1 관심영역 내에서 감지된 상기 유해조수의 성체의 출현 및 개체수에 관한 정보를 전송하는 단계;
상기 제1 카메라에 의해, 상기 외부 사용자 단말 장치로부터 포획 대상인 유해조수의 종류 및 개체수에 관한 정보를 수신하고, 상기 수신된 유해조수의 종류를 상기 유해조수의 성체의 종류로 설정하고, 상기 수신된 유해조수의 개체수를 기초로 성체의 개체수를 사전 결정하는 단계;
상기 제1 카메라에 의해, 상기 수신된 유해조수의 종류 및 개체수에 기초하여, 상기 제1 관심영역 내에서의 유해조수의 출현 또는 개체수를 감지하는 단계;
상기 제1 카메라에 의해, 상기 제1 게이트를 통과한 상기 유해조수의 성체의 개체수를 감지하는 단계;
상기 제1 카메라에 의해 상기 제1 게이트를 통과한 상기 유해조수의 성체의 개체수가 상기 사전 결정된 성체의 개체수 이하인 경우, 상기 제1 게이트를 개방된 상태로 제어하고, 상기 사전 결정된 성체의 개체수를 초과하는 경우, 상기 제1 게이트를 닫도록 제어하는 단계;
제2 카메라에 의해, 상기 제2 게이트에 인접하여 설정된 제2 관심영역 범위 내 유해조수의 새끼의 출현을 감지하는 단계;
상기 제2 카메라에 의해, 상기 외부 사용자 단말 장치로, 상기 제2 관심영역 내에서 감지된 상기 유해조수의 새끼의 출현 및 개체수에 관한 정보를 전송하는 단계;
상기 제2 카메라에 의해, 상기 외부 사용자 단말 장치로부터 포획 대상인 유해조수의 종류 및 개체수에 관한 정보를 수신하고, 상기 수신된 유해조수의 종류를 상기 유해조수의 새끼의 종류로 설정하고, 상기 수신된 유해조수의 개체수를 기초로 새끼의 개체수를 사전 결정하는 단계;
상기 제2 카메라에 의해, 상기 수신된 유해조수의 종류 및 개체수에 기초하여, 상기 제2 관심영역 내에서의 유해조수의 출현 또는 개체수를 감지하는 단계;
상기 제2 카메라에 의해, 상기 제2 게이트를 통과한 상기 유해조수의 새끼의 개체수를 감지하는 단계; 및
상기 제2 카메라에 의해, 상기 제2 게이트를 통과한 상기 유해조수의 새끼의 개체수가 사전 결정된 새끼의 개체수 이하인 경우, 상기 제2 게이트를 개방된 상태로 제어하고, 상기 사전 결정된 새끼의 개체수를 초과하는 경우, 상기 제2 게이트를 닫도록 제어하는 단계
를 포함하는, 유해조수 식별 및 포획 방법.
In a method for identifying and capturing harmful tides through an artificial intelligence-based selective object detection camera,
A trapping frame including a first gate and a second gate that can be opened and closed by a first camera, the capture frame comprising: detecting the appearance of an adult noxious algae within a range of a first region of interest set adjacent to the first gate;
transmitting, by the first camera, to an external user terminal device, information on the appearance and number of adults of the harmful bird detected in the first region of interest;
By the first camera, information on the type and number of noxious birds to be captured is received from the external user terminal device, the received type of noxious tide is set as the type of the adult of the noxious bird, and the received pre-determining the number of adults based on the number of harmful tides;
detecting, by the first camera, the appearance or number of harmful birds in the first region of interest, based on the received type and number of harmful birds;
detecting, by the first camera, the number of adults of the noxious birds that have passed through the first gate;
When the number of adults of the noxious bird that has passed through the first gate by the first camera is less than or equal to the predetermined number of adults, the first gate is controlled to an open state, and the predetermined number of adults is exceeded. if so, controlling the first gate to close;
detecting, by a second camera, the appearance of offspring of harmful birds within a range of a second region of interest set adjacent to the second gate;
transmitting, by the second camera, information on the appearance and number of offspring of the harmful bird detected within the second region of interest to the external user terminal device;
By the second camera, information on the type and number of the noxious bird to be captured is received from the external user terminal device, the received type of noxious bird is set as the type of the offspring of the noxious bird, and the received pre-determining the number of offspring based on the number of harmful tides;
detecting, by the second camera, the appearance or number of harmful birds in the second region of interest, based on the received type and number of harmful birds;
detecting, by the second camera, the number of offspring of the harmful bird passing through the second gate; and
By the second camera, when the number of offspring of the harmful bird that has passed through the second gate is less than or equal to a predetermined number of offspring, the second gate is controlled in an open state, and the predetermined number of offspring is exceeded If so, controlling to close the second gate
A method for identifying and capturing harmful algae, including.
KR1020200146623A 2020-11-05 2020-11-05 Method and system for identification and capturing harmful animals through ai-based monitoring camera KR102276549B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200146623A KR102276549B1 (en) 2020-11-05 2020-11-05 Method and system for identification and capturing harmful animals through ai-based monitoring camera
PCT/KR2020/017753 WO2022097824A1 (en) 2020-11-05 2020-12-07 Method and system for identifying and capturing harmful animals and birds through artificial intelligence-based selective object detection camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200146623A KR102276549B1 (en) 2020-11-05 2020-11-05 Method and system for identification and capturing harmful animals through ai-based monitoring camera

Publications (1)

Publication Number Publication Date
KR102276549B1 true KR102276549B1 (en) 2021-07-12

Family

ID=76858959

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200146623A KR102276549B1 (en) 2020-11-05 2020-11-05 Method and system for identification and capturing harmful animals through ai-based monitoring camera

Country Status (2)

Country Link
KR (1) KR102276549B1 (en)
WO (1) WO2022097824A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220155146A (en) * 2021-05-14 2022-11-22 영남대학교 산학협력단 Method and appratus for caturing of terrestrial animals

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5130346B2 (en) * 2010-12-10 2013-01-30 宏志 坂田 Wildlife capture system
JP3183537U (en) * 2013-03-05 2013-05-23 株式会社 アイエスイー Pest capture device
JP2015065964A (en) * 2013-10-01 2015-04-13 宏志 坂田 Trapping information system
JP2020519238A (en) * 2017-04-12 2020-07-02 バイエル、アクチエンゲゼルシャフトBayer Aktiengesellschaft Pest control system with added value using smart learning
KR102124812B1 (en) * 2019-09-30 2020-07-07 주식회사 피스 Hazardous Animal Trap device
JP2020171248A (en) * 2019-04-12 2020-10-22 合同会社アーク Animal capturing apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190166823A1 (en) * 2017-12-04 2019-06-06 Caldera Services LLC Selective Action Animal Trap

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5130346B2 (en) * 2010-12-10 2013-01-30 宏志 坂田 Wildlife capture system
JP3183537U (en) * 2013-03-05 2013-05-23 株式会社 アイエスイー Pest capture device
JP2015065964A (en) * 2013-10-01 2015-04-13 宏志 坂田 Trapping information system
JP2020519238A (en) * 2017-04-12 2020-07-02 バイエル、アクチエンゲゼルシャフトBayer Aktiengesellschaft Pest control system with added value using smart learning
JP2020171248A (en) * 2019-04-12 2020-10-22 合同会社アーク Animal capturing apparatus
KR102124812B1 (en) * 2019-09-30 2020-07-07 주식회사 피스 Hazardous Animal Trap device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220155146A (en) * 2021-05-14 2022-11-22 영남대학교 산학협력단 Method and appratus for caturing of terrestrial animals
KR102587129B1 (en) 2021-05-14 2023-10-06 영남대학교 산학협력단 Method and appratus for caturing of terrestrial animals

Also Published As

Publication number Publication date
WO2022097824A1 (en) 2022-05-12

Similar Documents

Publication Publication Date Title
US11617353B2 (en) Animal sensing system
US20190166823A1 (en) Selective Action Animal Trap
KR101740714B1 (en) Apparatus for prohibiting steeling corp produce and repelling animals of farm and the method thereof
US20170231215A1 (en) Method and Apparatus for Automated Animal Trapping
US20210289765A1 (en) Devices and methods for monitoring and elimination of honey bee parasites
JP2020171248A (en) Animal capturing apparatus
US20200045929A1 (en) Hog health monitor
KR102276549B1 (en) Method and system for identification and capturing harmful animals through ai-based monitoring camera
KR101002966B1 (en) Method for Monitoring and Managing Birth and Breeding of Agricultural Products Based Network Clustering Device
Janani et al. Human-Animal Conflict Analysis and Management-A Critical Survey
KR102492066B1 (en) Mobile preventive warning system
KR102469301B1 (en) Behavioral anomaly detection system
JP6178681B2 (en) Wildlife capture system
Kamesaka et al. Development of a prevention system for beast damage of agricultural products using deep learning
WO2022204153A1 (en) Image based tracking system
Sheela et al. Design of Rat Trap based on Ultrasonic Waves using Bluetooth Technology
CN113545333A (en) Intelligent recognition high-voltage mouse killer
Pillewan et al. Review on design of smart domestic farming based on Internet of Things (IoT)
Zulkiply et al. Smart mosquitoes trap using favoriot monitoring system
Patel et al. Smart Crop Protection Against Animal Encroachment using Deep Learning
Supraja et al. SMART CROP PROTECTION SYSTEM FROM ANIMAL USING IOT
Harshini et al. Artificial Intelligence Based Scarecrow Prevention from Crop Destruction
Aranganathan et al. Smart Agricultural Security System: Integrating Arduino Technology for Intruder Detection and Crop Protection
Jahangir et al. A Conceptual Framework of an Automated Mosquito Control in Drainage Systems for Combating Dengue in Bangladesh
Bhatta et al. Prototype for Smart Crop Protection Against Wild Animals

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant