KR102606062B1 - Apparatus and method for detecting abnormal object and imaging device comprising the same - Google Patents

Apparatus and method for detecting abnormal object and imaging device comprising the same Download PDF

Info

Publication number
KR102606062B1
KR102606062B1 KR1020180083564A KR20180083564A KR102606062B1 KR 102606062 B1 KR102606062 B1 KR 102606062B1 KR 1020180083564 A KR1020180083564 A KR 1020180083564A KR 20180083564 A KR20180083564 A KR 20180083564A KR 102606062 B1 KR102606062 B1 KR 102606062B1
Authority
KR
South Korea
Prior art keywords
data
abnormal
motion
image data
period
Prior art date
Application number
KR1020180083564A
Other languages
Korean (ko)
Other versions
KR20200009335A (en
Inventor
신제용
김근웅
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020180083564A priority Critical patent/KR102606062B1/en
Priority to PCT/KR2019/008268 priority patent/WO2020017799A1/en
Publication of KR20200009335A publication Critical patent/KR20200009335A/en
Application granted granted Critical
Publication of KR102606062B1 publication Critical patent/KR102606062B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • A01K29/005Monitoring or measuring activity, e.g. detecting heat or mating
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K39/00Feeding or drinking appliances for poultry or other birds
    • A01K39/04Combined feeding and drinking appliances, e.g. also for batteries
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K5/00Feeding devices for stock or game ; Feeding wagons; Feeding stacks
    • A01K5/01Feed troughs; Feed pails
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K5/00Feeding devices for stock or game ; Feeding wagons; Feeding stacks
    • A01K5/02Automatic devices
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K5/00Feeding devices for stock or game ; Feeding wagons; Feeding stacks
    • A01K5/02Automatic devices
    • A01K5/0291Automatic devices with timing mechanisms, e.g. pet feeders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Animal Husbandry (AREA)
  • Birds (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 실시예에 따르면, 복수 개체를 포함하는 이미지로부터 생성된 영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성하는 제1특징 추출 유닛; 상기 생성된 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성하는 제2특징 추출 유닛; 및 제1기간 동안 생성된 제1위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성하고, 제2기간 동안에 생성된 제2위치 분포 데이터 및 제2동작 데이터를 상기 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 제어부를 포함하며, 상기 제1기간은 급이 및 급수가 진행되지 않는 기간이고, 상기 제2기간은 급이 및 급수 중 적어도 하나가 진행되는 기간인 이상 개체 검출 장치를 제공한다.According to an embodiment of the present invention, a first feature extraction unit for generating position distribution data indicating the position distribution of the plurality of objects using image data generated from an image including the plurality of objects; a second feature extraction unit that generates motion data indicating movement of a motion object among the plurality of objects using the generated image data; and generate abnormal object candidate data representing an abnormal object candidate by comparing the first position distribution data and the first motion data generated during the first period, and the second position distribution data and the second motion data generated during the second period. and a control unit that compares the abnormal entity candidate data and generates abnormal entity data indicating an abnormal entity, wherein the first period is a period in which feeding and watering are not performed, and the second period is at least one of feeding and watering. Provides a device for detecting abnormal objects during which one is in progress.

Description

이상 개체 검출 장치 및 방법, 이를 포함하는 촬상 장치{APPARATUS AND METHOD FOR DETECTING ABNORMAL OBJECT AND IMAGING DEVICE COMPRISING THE SAME}Abnormal object detection device and method, imaging device including the same {APPARATUS AND METHOD FOR DETECTING ABNORMAL OBJECT AND IMAGING DEVICE COMPRISING THE SAME}

본 발명의 실시예는 이상 개체 검출 장치 및 방법, 이를 포함하는 촬상 장치에 관한 것이다.Embodiments of the present invention relate to an abnormal object detection device and method, and an imaging device including the same.

축산물에 대한 소비가 늘어나면서, 가축을 효율적으로 관리하는 방법에 대한 다양한 방안들이 제안되고 있다.As consumption of livestock products increases, various ways to manage livestock efficiently are being proposed.

종래에는 사람이 각각의 가축의 상태를 파악하여, 이상 징후가 나타나는 가축에 대하여 진료를 받게 하거나 따로 격리시켰다. 다만, 가축의 수가 많은 경우 모든 가축을 관리하기 위해서는 많은 인력이 필요하다는 문제점이 있었다.Conventionally, people would check the condition of each livestock, and receive medical treatment or isolate livestock that showed abnormal signs. However, when the number of livestock is large, there is a problem that a lot of manpower is needed to manage all the livestock.

또한, 일부 가축에 전염병이 발생하면 가축의 대부분이 폐사하는 결과가 초래될 수 있으므로, 가축의 이상 여부를 빠르고 정확하게 판단할 수 있는 방안이 요구되고 있다.In addition, if an infectious disease occurs in some livestock, it may result in the death of most of the livestock, so there is a need for a method to quickly and accurately determine whether there is an abnormality in the livestock.

또한, 교통 수단의 발달로 인하여 특정 지역에서 발생된 질병은 특정한 장소에 한정되지 않고 전국적으로 빠른 시간 내에 전염되는 현실에서 초기에 빠른 질병 판단이 요구되고 있다. 가축의 질병 판단에 있어서 발열에 따른 온도측정 방식이 질병 유무 판단의 기준으로 활용되고 있다. 그러나 많은 가축에 대한 일률적인 온도측정이 이루어지기 때문에, 가축 개체 각각의 상태에 따른 질병 판단에 대한 어려움이 있다. 또한, 이러한 온도 측정에 의한 질병 판단 방식은 질병 발생 초기 단계에 개체를 검출하는데에 어려움이 있다.In addition, due to the development of means of transportation, diseases that occur in a specific region are not limited to a specific location and are spread nationwide in a short period of time, so quick disease diagnosis is required at an early stage. In determining disease in livestock, the temperature measurement method based on fever is used as a standard for determining the presence or absence of disease. However, because uniform temperature measurements are made for many livestock, there is difficulty in determining disease according to the condition of each livestock individual. In addition, this method of determining disease based on temperature measurement has difficulty detecting individuals in the early stages of disease occurrence.

본 발명이 이루고자 하는 기술적 과제는 사육장 내부를 촬영한 영상 데이터 상에서 질병에 걸린 가능성이 높은 개체를 검출할 수 있는 이상 개체 검출 장치 및 방법, 이를 포함하는 촬상 장치를 제공하는데 있다.The technical problem to be achieved by the present invention is to provide an abnormal object detection device and method capable of detecting objects likely to have a disease from image data captured inside a breeding farm, and an imaging device including the same.

본 발명의 실시예에 따르면, 복수 개체를 포함하는 이미지로부터 생성된 영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성하는 제1특징 추출 유닛; 상기 생성된 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성하는 제2특징 추출 유닛; 및 제1기간 동안 생성된 제1위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성하고, 제2기간 동안에 생성된 제2위치 분포 데이터 및 제2동작 데이터를 상기 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 제어부를 포함하며, 상기 제1기간은 급이 및 급수가 진행되지 않는 기간이고, 상기 제2기간은 급이 및 급수 중 적어도 하나가 진행되는 기간인 이상 개체 검출 장치를 제공한다.According to an embodiment of the present invention, a first feature extraction unit for generating position distribution data indicating the position distribution of the plurality of objects using image data generated from an image including the plurality of objects; a second feature extraction unit that generates motion data indicating movement of a motion object among the plurality of objects using the generated image data; and generate abnormal object candidate data representing an abnormal object candidate by comparing the first position distribution data and the first motion data generated during the first period, and the second position distribution data and the second motion data generated during the second period. and a control unit that compares the abnormal entity candidate data and generates abnormal entity data indicating an abnormal entity, wherein the first period is a period in which feeding and watering are not performed, and the second period is at least one of feeding and watering. Provides a device for detecting abnormal objects during which one is in progress.

상기 위치 분포 데이터는 상기 영상 데이터에서 블록별로 개체의 존재 여부가 확률로서 표시된 데이터를 포함하고, 상기 동작 데이터는 상기 영상 데이터에서 블록별로 움직임 존재 여부가 표시된 데이터를 포함할 수 있다.The position distribution data may include data indicating the presence or absence of an object as a probability for each block in the image data, and the motion data may include data indicating the presence or absence of motion for each block in the image data.

상기 이상 개체 후보 데이터는 상기 제1 위치 분포 데이터에서 상기 개체의 존재 확률이 있으면서 상기 제1동작 데이터상에서 움직임이 검출되지 않은 블록의 집합을 포함할 수 있다.The abnormal entity candidate data may include a set of blocks in which there is a probability of existence of the entity in the first location distribution data but no movement is detected in the first motion data.

상기 이상 개체 데이터는 상기 이상 개체 후보 중 상기 제2 위치 분포 데이터에서 상기 개체의 존재 확률이 있으면서 상기 제2동작 데이터상에서 움직임이 검출되지 않은 블록의 집합을 포함할 수 있다.The abnormal entity data may include a set of blocks among the abnormal entity candidates in which there is a probability of existence of the entity in the second location distribution data but no movement is detected in the second motion data.

상기 제어부는 기 저장된 급이 및 급수 타임 테이블을 통하여 상기 제1기간과 상기 제2기간을 구분할 수 있다.The control unit may distinguish the first period and the second period through a pre-stored feeding and water supply time table.

상기 제어부는 외부로부터 급이 및 급수 타임 테이블을 수신하여 상기 제1기간과 상기 제2기간을 구분할 수 있다.The control unit may receive a feeding and watering time table from the outside and distinguish between the first period and the second period.

상기 제어부는 상기 제1 동작 데이터와 상기 제2 동작 데이터를 이용하여 상기 제1기간과 상기 제2기간을 구분할 수 있다.The control unit may distinguish between the first period and the second period using the first operation data and the second operation data.

상기 제어부는 상기 이상 개체 후보 데이터를 이용하여 이상 개체 후보가 검출된 경우 상기 제1기간과 상기 제2기간 사이에 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력할 수 있다.When an abnormal entity candidate is detected using the abnormal entity candidate data, the control unit may output a driving command to at least one of the feeder and the waterer between the first period and the second period.

상기 제어부는 상기 이상 개체 후보 데이터를 이용하여 상기 이상 개체 후보가 검출된 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력할 수 있다.The control unit may use the abnormal entity candidate data to output a driving command to at least one of the feeder and waterer assigned to the area where the abnormal entity candidate was detected.

상기 제어부는 상기 이상 개체 후보 데이터를 이용하여 상기 이상 개체 후보가 검출된 영역을 제외한 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력할 수 있다.The control unit may use the abnormal entity candidate data to output a driving command to at least one of the feeder and waterer assigned to an area excluding the area where the abnormal entity candidate was detected.

상기 제1특징 추출 유닛은 제2기간 동안 생성된 영상 데이터로부터 급이 영역 및 급수 영역중 적어도 하나의 영역을 검출할 수 있다.The first feature extraction unit may detect at least one of the feeding area and the water supply area from the image data generated during the second period.

상기 제어부는 상기 급이 영역 및 급수 영역 중 적어도 하나의 영역의 너비 변화를 통하여 상기 이상 개체 데이터를 생성할 수 있다.The control unit may generate the abnormal entity data through a change in the width of at least one of the feeding area and the water supply area.

상기 제어부는 상기 급이기 및 급수기 중 적어도 하나의 높이를 조절하는 구동 명령을 출력할 수 있다.The control unit may output a drive command to adjust the height of at least one of the feeder and the waterer.

본 발명의 실시예에 따르면, 복수 개체를 포함하는 이미지를 촬영하여 영상 데이터를 생성하는 촬영부; 상기 영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성하는 제1특징 추출 유닛; 상기 생성된 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성하는 제2특징 추출 유닛; 및 제1기간 동안 생성된 제1위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성하고, 제2기간 동안 생성된 제2위치 분포 데이터 및 제2동작 데이터를 상기 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 제어부를 포함하며, 상기 제1기간은 급이 및 급수가 진행되지 않는 기간이고, 상기 제2기간은 급이 및 급수 중 적어도 하나가 진행되는 기간인 촬상 장치를 제공한다.According to an embodiment of the present invention, a photographing unit for generating image data by photographing an image including a plurality of objects; a first feature extraction unit that generates position distribution data indicating the position distribution of the plurality of objects using the image data; a second feature extraction unit that generates motion data indicating movement of a motion object among the plurality of objects using the generated image data; and generate abnormal object candidate data representing an abnormal object candidate by comparing the first position distribution data and the first motion data generated during the first period, and the second position distribution data and the second motion data generated during the second period. and a control unit that compares the abnormal entity candidate data and generates abnormal entity data indicating an abnormal entity, wherein the first period is a period in which feeding and watering are not performed, and the second period is at least one of feeding and watering. One provides an imaging device, a period of time in progress.

본 발명의 실시예에 따르면, 제1기간 동안 복수 개체를 포함하는 이미지를 촬영하여 제1영상 데이터를 생성하는 단계; 상기 제1영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성하는 단계; 상기 제1영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성하는 단계; 상기 제1 위치 분포 데이터 및 상기 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성하는 단계; 제2기간 동안 복수 개체를 포함하는 이미지를 촬영하여 제2영상 데이터를 생성하는 단계; 상기 제2 영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성하는 단계; 상기 제2 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 제2동작 데이터를 생성하는 단계; 및 상기 제2 위치 분포 데이터 및 상기 제2동작 데이터를 상기 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 단계를 포함하며, 상기 제1기간은 급이 및 급수가 진행되지 않는 기간이고, 상기 제2기간은 급이 및 급수 중 적어도 하나가 진행되는 기간인 이상 개체 검출 방법을 제공한다.According to an embodiment of the present invention, generating first image data by photographing an image including a plurality of objects during a first period of time; generating first position distribution data representing the position distribution of the plurality of objects using the first image data; generating first motion data representing movement of a motion object among the plurality of objects using the first image data; generating abnormal entity candidate data representing an abnormal entity candidate by comparing the first location distribution data and the first motion data; generating second image data by photographing images including a plurality of objects during a second period; generating second position distribution data representing the position distribution of the plurality of objects using the second image data; generating second motion data representing movement of a motion object among the plurality of objects using the second image data; and generating abnormal entity data representing an abnormal entity by comparing the second position distribution data and the second motion data with the abnormal entity candidate data, wherein the first period is when feeding and watering are not in progress. It is a period, and the second period is a period in which at least one of feeding and water supply is in progress.

본 발명인 이상 개체 검출 장치 및 방법, 이를 포함하는 촬상 장치는 사육장 내부를 촬영한 영상데이터 상에서 질병에 걸린 가능성이 높은 이상 개체를 검출할 수 있다.The present inventors' abnormal object detection device and method, and an imaging device including the same, can detect abnormal objects that are highly likely to have a disease on image data captured inside a breeding farm.

또한, 이상 개체와 정상 개체를 시각적으로 구분하여 표시할 수 있다.Additionally, abnormal objects and normal objects can be visually distinguished and displayed.

또한, 이상 개체를 추적하여 감시할 수 있다.Additionally, abnormal objects can be tracked and monitored.

또한, 이상 개체 발생시 관리자에게 알림 또는 경고를 송출할 수 있다.Additionally, when an abnormal object occurs, a notification or warning can be sent to the administrator.

또한, 분석 데이터의 연산량을 감소시키고, 연산 속도를 향상시킬 수 있다.Additionally, the amount of calculation of analysis data can be reduced and calculation speed can be improved.

또한, 픽셀별 또는 특정 영역별로 개체, 개체의 머리 또는 몸통의 존재 확률을 검출하고, 움직임 검출 결과와 비교하여 이상 개체를 검출함으로써 특정 개체를 트래킹하는 방식에 비하여 연산량, 속도, 정확도면에서 향상된 효과를 기대할 수 있다.In addition, it detects the probability of existence of an object or its head or body for each pixel or specific area, and compares it with the motion detection result to detect abnormal objects, thereby improving the amount of calculation, speed, and accuracy compared to the method of tracking a specific object. can be expected.

도1은 본 발명의 실시예에 따른 사육장의 개념도이다.
도2는 본 발명의 실시예에 따른 촬상 장치의 블록도이다.
도3은 기존 방식에 따른 이상 개체 검출 방식을 설명하기 위한 도면이다.
도4는 본 발명의 실시예에 따른 이상 개체 검출 장치의 동작을 설명하기 위한 도면이다.
도5 내지 10은 본 발명의 실시예에 따른 이상 개체 검출 방법의 순서도이다.
도11은 본 발명의 실시예에 따른 학습용 서버의 구성 개념도이다.
도12 내지 도15는 본 발명의 실시예에 따른 이상 개체 검출 장치의 동작을 설명하기 위한 도면이다.
도16 내지 도17은 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다.
Figure 1 is a conceptual diagram of a breeding farm according to an embodiment of the present invention.
Figure 2 is a block diagram of an imaging device according to an embodiment of the present invention.
Figure 3 is a diagram for explaining an abnormal object detection method according to an existing method.
Figure 4 is a diagram for explaining the operation of an abnormal object detection device according to an embodiment of the present invention.
5 to 10 are flowcharts of a method for detecting abnormal entities according to an embodiment of the present invention.
Figure 11 is a conceptual diagram of the configuration of a learning server according to an embodiment of the present invention.
12 to 15 are diagrams for explaining the operation of an abnormal object detection device according to an embodiment of the present invention.
Figures 16 and 17 are diagrams for explaining the operation of the control unit according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.

다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.However, the technical idea of the present invention is not limited to some of the described embodiments, but may be implemented in various different forms, and as long as it is within the scope of the technical idea of the present invention, one or more of the components may be optionally used between the embodiments. It can be used by combining and replacing.

또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention, unless explicitly specifically defined and described, are generally understood by those skilled in the art to which the present invention pertains. It can be interpreted as meaning, and the meaning of commonly used terms, such as terms defined in a dictionary, can be interpreted by considering the contextual meaning of the related technology.

또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.Additionally, the terms used in the embodiments of the present invention are for describing the embodiments and are not intended to limit the present invention.

본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.In this specification, the singular may also include the plural unless specifically stated in the phrase, and when described as "at least one (or more than one) of A and B and C", it is combined with A, B, and C. It can contain one or more of all possible combinations.

또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.Additionally, when describing the components of an embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used.

이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.These terms are only used to distinguish the component from other components, and are not limited to the essence, sequence, or order of the component.

그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.And, when a component is described as being 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected, coupled or connected to that other component, but also is connected to that component. It can also include cases where other components are 'connected', 'combined', or 'connected' due to another component between them.

또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.Additionally, when described as being formed or disposed "above" or "below" each component, "above" or "below" refers not only to cases where two components are in direct contact with each other, but also to one This also includes cases where another component described above is formed or placed between two components. In addition, when expressed as "top (above) or bottom (bottom)", it may include not only the upward direction but also the downward direction based on one component.

도 1은 본 발명의 실시예에 따른 사육장의 개념도이고, 도 2는 본 발명의 실시예에 따른 촬상 장치의 블록도이다. Figure 1 is a conceptual diagram of a breeding farm according to an embodiment of the present invention, and Figure 2 is a block diagram of an imaging device according to an embodiment of the present invention.

도 1 내지 2를 참조하면, 먼저 사육장(10)은 가축을 사육하는 축사를 의미한다. 가축은 닭, 오리 등의 가금류뿐만 아니라, 소, 돼지 등 축사 내에서 집단으로 사육되는 다양한 종류의 동물일 수 있다.Referring to Figures 1 and 2, first, the breeding farm 10 refers to a barn for raising livestock. Livestock may include not only poultry such as chickens and ducks, but also various types of animals raised in groups in livestock farms, such as cows and pigs.

촬상 장치(100)는 사육장(10) 내의 환경을 검출하고, 이를 관리 서버(200) 및 공조 장치(300) 중 적어도 하나에 전송할 수 있다. 이를 위하여, 촬상 장치(100)는 관리 서버(200) 및 공조 장치(300)와 유선 또는 무선으로 통신할 수 있다. 여기서, 촬상 장치(100)가 관리 서버(200) 및 공조 장치(300)와 각각 통신하는 것으로 도시되어 있으나, 이로 제한되지 않으며, 촬상 장치(100)가 관리 서버(200)와 통신하고, 관리 서버(200)가 공조 장치(300)와 통신할 수도 있다. The imaging device 100 may detect the environment within the breeding farm 10 and transmit it to at least one of the management server 200 and the air conditioning device 300. To this end, the imaging device 100 may communicate with the management server 200 and the air conditioning device 300 by wire or wirelessly. Here, the imaging device 100 is shown to communicate with the management server 200 and the air conditioning device 300, respectively, but is not limited to this, and the imaging device 100 communicates with the management server 200, and the management server (200) may communicate with the air conditioning device (300).

사육장(10) 내에는 복수개의 촬상 장치가 배치될 수 있다. 촬상 장치(100)는 촬영부(111)에서 촬영한 영상 데이터를 관리 서버(200)로 전송할 수 있다. 또는, 사육장(10)내에는 별도의 데이터 수집장치(150)가 배치되어 복수개의 촬상 장치(100)로부터 영상 데이터를 수집하여 관리 서버(200)로 전송할 수 있다. 사육장(10) 내부의 상태를 정밀하게 분석하기 위하여 촬상 장치(100)의 영상 데이터는 고화질, 고용량의 특성을 가질 수 있다. 따라서, 복수개의 촬상 장치(100)에서 촬영된 영상 데이터를 실시간으로 원격의 관리 서버(200)로 전송하기 위하여서는 큰 대역폭이 요구될 수 있으며, 이에 따라 전송 속도가 저하될수 있다. 따라서, 별도의 데이터 수집장치(150)에서는 사육장(10)내의 촬상 장치(100)로부터 영상 데이터를 수집하여 인코딩 한 후 관리 서버(200)로 전송함으로써 통신 대역폭을 저감시키고, 전송 속도를 향상시킬 수 있다. 또는 촬상 장치(100)는 영상 데이터를 이용하여 사육장(10)상태를 분석하기 위한 1차 분석을 수행한 후, 가공된 데이터를 데이터 수집장치에 전달하거나 또는 관리 서버(200)에 전송할 수 있다. 즉, 촬상 장치(100)는 사육장(10)의 상태 분석을 위하여 필요한 데이터만을 선별하여 데이터 수집장치(150)에 전달하거나 또는 관리 서버(200)에 전송함으로써 통신 자원을 효율적으로 관리할 수 있다. 또는 촬상 장치(100)는 사육장(10)을 촬영한 영상 데이터를 이용하여 사육장(10) 내부 상태를 1차적으로 분석하여 그 결과를 데이터 수집장치(150)에 전달하거나 또는 관리 서버(200)에 전송할 수 있다.A plurality of imaging devices may be disposed within the breeding farm 10. The imaging device 100 may transmit image data captured by the photographing unit 111 to the management server 200. Alternatively, a separate data collection device 150 may be placed in the breeding farm 10 to collect image data from a plurality of imaging devices 100 and transmit it to the management server 200. In order to precisely analyze the condition inside the breeding farm 10, the image data of the imaging device 100 may have high-definition and high-capacity characteristics. Therefore, in order to transmit image data captured by a plurality of imaging devices 100 to the remote management server 200 in real time, a large bandwidth may be required, and accordingly, the transmission speed may decrease. Therefore, the separate data collection device 150 collects image data from the imaging device 100 in the breeding farm 10, encodes it, and then transmits it to the management server 200, thereby reducing communication bandwidth and improving transmission speed. there is. Alternatively, the imaging device 100 may perform primary analysis to analyze the state of the breeding farm 10 using image data and then transmit the processed data to the data collection device or to the management server 200. That is, the imaging device 100 can efficiently manage communication resources by selecting only the data necessary for analyzing the state of the breeding farm 10 and transmitting it to the data collection device 150 or the management server 200. Alternatively, the imaging device 100 primarily analyzes the internal state of the breeding farm 10 using image data captured in the breeding farm 10 and transmits the results to the data collection device 150 or the management server 200. Can be transmitted.

관리 서버(200)는 퍼스널 컴퓨터(personal computer, PC), 태블릿 PC, 휴대단말 등을 포함하는 서버일 수 있다. 촬상 장치(100)가 관리 서버(200)에게 사육장(10) 내의 환경을 전송하는 경우, 관리자는 관리 서버(200)에 출력된 화면 등을 통하여 사육장(10) 내의 환경을 인지할 수 있다. 예를 들어, 촬상 장치(100)가 사육장(10) 내의 이상상황을 포착하여 이를 관리 서버(200)에게 전송한 경우, 관리자는 관리 서버(200)에 출력된 화면을 통하여 사육장(10) 내에 이상상황이 발생하였음을 인지할 수 있으며, 이상상황에 대하여 초기에 대응할 수 있다. 여기서, 이상상황은, 예를 들어 질병에 걸린 가축의 발생, 가축의 임신, 가축의 생장 기간, 사육장(10) 내 습도, 온도, 특정 분자의 농도 이상 등일 수 있다. The management server 200 may be a server including a personal computer (PC), tablet PC, mobile terminal, etc. When the imaging device 100 transmits the environment in the kennel 10 to the management server 200, the manager can recognize the environment in the kennel 10 through a screen output to the management server 200. For example, when the imaging device 100 captures an abnormal situation in the breeding farm 10 and transmits it to the management server 200, the manager can detect the abnormality in the breeding farm 10 through the screen displayed on the management server 200. You can recognize that a situation has occurred and respond early to abnormal situations. Here, the abnormal situation may be, for example, the occurrence of diseased livestock, pregnancy of livestock, growth period of livestock, humidity, temperature, concentration of a specific molecule, etc. in the breeding farm 10.

관리 서버(200)가 복수의 사육장(10)으로부터 정보를 전송 받는 중앙 서버일 경우에 관리자는 관리 서버(200)와이 접근성이 용이 하지 않을 수 있다. 이런 경우 관리 서버(200)는 별도의 관리자의 휴대단말 등을 통하여 사육장(10) 내에 이상상황에 대한 정보를 전달 할 수 있다.If the management server 200 is a central server that receives information from a plurality of breeding farms 10, the manager may not have easy accessibility to the management server 200. In this case, the management server 200 can transmit information about an abnormal situation within the breeding farm 10 through a separate manager's mobile terminal, etc.

또한, 관리 서버(200)는 촬상 장치(100) 또는 데이터 수집장치(150)에서 전송한 데이터를 이용하여 사육장 상태를 분석할 수 있다. 예를 들면, 관리 서버(100)는 복수개의 촬상 장치(100) 또는 데이터 수집장치(150)에서 1차적으로 가공된 데이터를 수신하여 사육장 상태에 대한 보다 정밀한 분석을 수행할 수 있다. 관리 서버(200)는 촬상 장치(100)의 통신부(115)와 데이터 통신을 수행하거나 또는 데이터 수집장치(150)에 장착된 통신 모듈(미도시)과 데이터 통신을 수행할 수 있다. 관리 서버(200)는 촬상 장치(100)에서 촬영한 원본 영상과 1차적으로 가공된 가공 영상 데이터를 수신할 수 있다. 이 때, 가공 영상 데이터는 사육장 관리 장치(100) 또는 촬상 장치(100)에서 원본 영상에 대하여 1차적인 분석을 수행하고, 이를 인코딩한 데이터를 의미할 수 있다.Additionally, the management server 200 may analyze the condition of the breeding farm using data transmitted from the imaging device 100 or the data collection device 150. For example, the management server 100 may receive primarily processed data from a plurality of imaging devices 100 or data collection devices 150 to perform a more precise analysis of the state of the breeding farm. The management server 200 may perform data communication with the communication unit 115 of the imaging device 100 or may perform data communication with a communication module (not shown) mounted on the data collection device 150. The management server 200 may receive the original image captured by the imaging device 100 and the primarily processed image data. At this time, the processed image data may refer to data in which the kennel management device 100 or the imaging device 100 performs primary analysis on the original image and encodes it.

공조 장치(300)는 사육장(10)의 온도를 조절하는 장치이다. 촬상 장치(100)가 사육장(10) 내 온도이상을 포착하여 관리 서버(200)에게 전송한 경우, 관리자는 관리 서버(200)에 출력된 화면을 통하여 사육장(10) 내 온도이상이 발생하였음을 인지할 수 있으며, 공조 장치(300)를 제어하여 사육장(10) 내 온도를 정상화할 수 있다. 또는, 촬상 장치(100)가 사육장(10) 내 온도이상을 검출하여 공조 장치(300)에게 직접 전달한 경우, 공조 장치(300)가 직접 사육장(10) 내 온도를 정상화할 수도 있다. 예를 들어, 사육장(10) 내의 온도가 가축이 생활하기에 적절한 온도보다 낮거나, 높은 경우, 가축들의 움직임이 둔화되는 경향이 있다. 이에 따라, 촬상 장치(100), 관리 서버(200), 또는 공조 장치(300)는 사육장(10) 내 온도이상을 검출하여 사육장(10) 내 온도를 정상화할 수 있다. The air conditioning device 300 is a device that controls the temperature of the breeding farm 10. When the imaging device 100 captures a temperature abnormality in the breeding farm 10 and transmits it to the management server 200, the manager reports that a temperature abnormality has occurred in the breeding farm 10 through the screen displayed on the management server 200. It can be recognized, and the temperature in the breeding farm 10 can be normalized by controlling the air conditioning device 300. Alternatively, when the imaging device 100 detects a temperature abnormality in the breeding farm 10 and directly transmits the detected temperature to the air conditioning device 300, the air conditioning device 300 may directly normalize the temperature in the breeding farm 10. For example, if the temperature in the breeding farm 10 is lower or higher than the temperature appropriate for livestock living, the livestock's movement tends to slow down. Accordingly, the imaging device 100, the management server 200, or the air conditioning device 300 can detect a temperature abnormality within the breeding farm 10 and normalize the temperature within the breeding farm 10.

공조 장치(300)는 사육장(10)의 습도를 조절할 수 있다. 사육장(10) 내의 습도 이상이 발생한 경우, 공조 장치(300)를 제어하여 사육장(10) 내 습도를 정상화할 수 있다.The air conditioning device 300 can control the humidity of the breeding farm 10. If an abnormality in humidity occurs in the breeding farm 10, the humidity in the breeding farm 10 can be normalized by controlling the air conditioning device 300.

촬상 장치(100)는 촬영부(111), 제1특징 추출 유닛(112), 제2특징 추출 유닛(113), 제어부(114), 통신부(115), 표시부(116), 유저 인터페이스부(117), 인코딩부(118), 데이터 베이스(119), 조도 센서(120), 광원부(121), 팬틸트부(122)를 포함한다. 본 발명의 실시예에서는 제1특징 추출 유닛(112), 제2특징 추출 유닛(113), 제어부(114), 통신부(115)를 포함하는 이상 개체 검출 장치가 촬상 장치(100)에 포함되어 구성되는 것으로 도시하였다. 그러나, 이상 개체 검출 장치는 별도의 모듈 형태로 제작되어 데이터 수집장치(150) 또는 관리 서버(200)에 포함되어 구성될 수 있다. 또는, 이상 개체 검출 장치는 별도의 디바이스 형태로 독립된 제품으로 실시될 수 있다. 이상 개체 검출 장치가 촬상 장치(100)와 별도의 모듈 또는 디바이스 형태로 적용되는 경우 이상 개체 검출 장치는 통신부(115)를 통하여 촬상 장치(100)로부터 영상 데이터를 수신할 수 있다. 또한, 제1특징 추출 유닛 및 제2특징 추출 유닛은 제어부에 포함되어 하나의 프로세서로 구현될 수 있다. 본 발명의 실시예에서는 설명의 편의를 위하여 제1특징 추출 유닛, 제2특징 추출 유닛, 제어부의 기능을 나누어 설명하기로 한다.The imaging device 100 includes a photographing unit 111, a first feature extraction unit 112, a second feature extraction unit 113, a control unit 114, a communication unit 115, a display unit 116, and a user interface unit 117. ), an encoding unit 118, a database 119, an illumination sensor 120, a light source unit 121, and a pan/tilt unit 122. In an embodiment of the present invention, an abnormal object detection device including a first feature extraction unit 112, a second feature extraction unit 113, a control unit 114, and a communication unit 115 is included in the imaging device 100. It is shown as being possible. However, the abnormal object detection device may be manufactured as a separate module and included in the data collection device 150 or the management server 200. Alternatively, the abnormal object detection device may be implemented as an independent product in the form of a separate device. When the abnormal object detection device is applied in the form of a module or device separate from the imaging device 100, the abnormal object detection device may receive image data from the imaging device 100 through the communication unit 115. Additionally, the first feature extraction unit and the second feature extraction unit may be included in the control unit and implemented with one processor. In an embodiment of the present invention, for convenience of explanation, the functions of the first feature extraction unit, the second feature extraction unit, and the control unit will be separately described.

이하에서는, 이상 개체 검출 장치가 촬상 장치(100)내에 포함되어 있음을 예로 들어 설명하기로 한다.Hereinafter, it will be explained by taking as an example that the abnormal object detection device is included in the imaging device 100.

촬상 장치(100)는 사육장(10)내에 복수개가 설치될 수 있다. 예를 들어, 촬상 장치(100)는 사육장(10)의 상부에 배치된 적어도 하나의 상부 촬상 장치 및 사육장의 측부에 배치된 적어도 하나의 측부 촬상 장치를 포함할 수 있다. 상부 촬상 장치 및 측부 촬상 장치 각각은 유선 또는 무선으로 통신이 가능하여 실시간 영상의 송출이 가능한 IP 카메라일 수 있다. 본 실시예에서는 사육장 상부에 하나의 촬상 장치(100)가 배치되어 있는 것을 예로 들어 설명하기로 한다.A plurality of imaging devices 100 may be installed in the breeding farm 10. For example, the imaging device 100 may include at least one upper imaging device disposed on the upper part of the kennel 10 and at least one side imaging device disposed on the side of the kennel 10. Each of the upper imaging device and the side imaging device may be an IP camera capable of transmitting real-time images through wired or wireless communication. In this embodiment, the case where one imaging device 100 is placed at the top of the breeding farm will be described as an example.

또한, 본 발명의 실시예에서 복수 개체는 사육장 내부에서 사육되는 가금류를 의미할 수 있다.Additionally, in an embodiment of the present invention, a plurality of individuals may refer to poultry raised inside a breeding farm.

촬영부(111)는 순차적으로 촬영되는 복수개의 이미지를 이용하여 복수개의 영상 데이터를 생성할 수 있다. 예를 들면, 촬영부(111)는 복수의 블록을 포함하는 제1이미지를 촬영하여 제1영상 데이터를 생성할 수 있으며, 복수의 블록을 포함하는 제2이미지를 촬영하여 제2영상 데이터를 생성할 수 있다. 제1이미지 및 제2이미지는 시간상으로 연속적으로 촬영된 이미지일 수 있으며, 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 촬영부(111)는 순차적으로 촬영되는 제1이미지 및 제2이미지를 이용하여 제1영상 데이터 및 제2영상 데이터를 생성할 수 있다.The photographing unit 111 may generate a plurality of image data using a plurality of images sequentially photographed. For example, the photographing unit 111 may generate first image data by photographing a first image including a plurality of blocks, and generate second image data by photographing a second image including a plurality of blocks. can do. The first image and the second image may be images taken sequentially in time, and one image data may represent a single frame. The photographing unit 111 may generate first image data and second image data using first and second images that are sequentially photographed.

촬영부(111)는 제1기간동안 촬영되는 이미지를 이용하여 영상 데이터를 생성하고, 제2기간 동안 촬영되는 이미지를 이용하여 영상 데이터를 생성할 수 있다. 이 때, 촬영부(111)는 제1기간 동안 순차적으로 촬영되는 복수개의 이미지를 이용하여 복수개의 영상 데이터를 생성하고, 제2기간 동안 순차적으로 촬영되는 복수개의 이미지를 이용하여 복수개의 영상 데이터를 생성할 수 있다. 또한, 촬영부(111)는 제3기간동안 촬영되는 이미지를 이용하여 영상데이터를 생성할 수 있다. The capturing unit 111 may generate image data using images captured during a first period and generate image data using images captured during a second period. At this time, the photographing unit 111 generates a plurality of image data using a plurality of images sequentially photographed during the first period, and generates a plurality of image data using a plurality of images sequentially photographed during the second period. can be created. Additionally, the photographing unit 111 may generate image data using images captured during the third period.

본 발명의 실시예에서, 제1기간은 급이 및 급수가 진행되지 않는 기간이고, 제2기간은 급이 및 급수 중 적어도 하나가 진행되는 기간을 의미할 수 있다. In an embodiment of the present invention, the first period may mean a period in which feeding and watering are not in progress, and the second period may mean a period in which at least one of feeding and watering is in progress.

본 발명의 실시예에서 제1기간동안 촬영되는 이미지를 이용하여 생성되는 영상 데이터를 제1영상데이터라 하고, 제2기간동안 촬영되는 이미지를 이용하여 생성되는 영상 데이터를 제2영상 데이터로 정의한다. 제1영상 데이터와 제2영상 데이터는 단일 영상 데이터이거나 또는 복수개의 영상 데이터를 의미할 수 있다.In an embodiment of the present invention, image data generated using images captured during a first period are defined as first image data, and image data created using images captured during a second period are defined as second image data. . The first image data and the second image data may mean single image data or a plurality of image data.

이미지 센서는 CMOS(complementary metal-oxide semiconductor) 모듈 또는 CCD(charge coupled device) 모듈 등을 이용하여 피사체를 촬영하는 이미지 센서일 수 있다. 이때, 입력되는 영상 프레임은 렌즈를 통해 촬영부(111) 내의 COMS 모듈 또는 CCD 모듈로 제공되고, COMS 모듈 또는 CCD 모듈은 렌즈를 통과한 피사체의 광신호를 전기적 신호(영상 데이터)로 변환하여 출력한다. The image sensor may be an image sensor that photographs a subject using a complementary metal-oxide semiconductor (CMOS) module or a charge coupled device (CCD) module. At this time, the input image frame is provided to the COMS module or CCD module in the photographing unit 111 through the lens, and the COMS module or CCD module converts the optical signal of the subject that has passed through the lens into an electrical signal (image data) and outputs it. do.

촬영부(111)는 시야각이 넓은 어안렌즈 또는 광각렌즈를 포함할 수 있다. 이에 따라, 하나의 촬상 장치(100)가 사육장(10) 내부의 전체 공간을 촬영하는 것이 가능하다. The photographing unit 111 may include a fisheye lens or a wide-angle lens with a wide viewing angle. Accordingly, it is possible for one imaging device 100 to photograph the entire space inside the breeding farm 10.

또한, 촬영부(111)는 깊이 카메라일 수 있다. 촬영부(111)는 다양한 깊이 인식 방식 중 어느 하나의 방식으로 구동될 수 있으며, 촬영부(111)를 통하여 촬영된 영상에는 깊이 정보가 포함될 수 있다. 촬영부(111)는 예를 들어, 키넥트 센서일 수 있다. 키넥트 센서는 구조광 투영 방식의 깊이 카메라로서, 프로젝터나 레이저를 이용하여 정의된 패턴 영상을 투영시키고 카메라를 통하여 패턴이 투영된 영상을 획득함으로써 장면의 삼차원 정보를 획득할 수 있다. 이러한 키넥트 센서는 적외선 레이저를 이용해 패턴을 조사하는 적외선 방사체, 및 적외선 영상을 촬영하는 적외선 카메라를 포함하며, 일반적인 웹캠과 같은 기능을 하는 RGB 카메라가 적외선 방사체와 적외선 카메라 사이에 배치되어 있다. 이 외에도, 키넥트 센서에는 마이크 배열과 카메라의 각도를 조절하는 팬틸트부(122)가 더 구성될 수 있다.Additionally, the imaging unit 111 may be a depth camera. The photographing unit 111 may be driven by any one of various depth recognition methods, and an image captured through the photographing unit 111 may include depth information. The photographing unit 111 may be, for example, a Kinect sensor. The Kinect sensor is a structured light projection depth camera that can obtain three-dimensional information of a scene by projecting a defined pattern image using a projector or laser and acquiring the projected image of the pattern through the camera. This Kinect sensor includes an infrared emitter that irradiates a pattern using an infrared laser, and an infrared camera that takes infrared images, and an RGB camera that functions like a general webcam is placed between the infrared emitter and the infrared camera. In addition, the Kinect sensor may further include a pan/tilt unit 122 that adjusts the angle of the microphone array and camera.

키넥트 센서의 기본적인 원리는, 적외선 방사체에서 조사된 레이저 패턴이 물체에 투영되어 반사되면, 반사 지점에서의 패턴의 위치 및 크기를 이용해 물체 표면까지의 거리를 구하게 된다. 이러한 원리에 따라, 촬영부(111)는 사육장 내 공간으로 레이저 패턴을 조사하고, 개체에서 반사된 레이저 패턴을 센싱하여 개체 별 깊이 정보를 포함하는 영상 데이터를 생성할 수 있다.The basic principle of the Kinect sensor is that when a laser pattern emitted from an infrared emitter is projected and reflected on an object, the distance to the object surface is calculated using the position and size of the pattern at the reflection point. According to this principle, the imaging unit 111 can generate image data including depth information for each object by irradiating a laser pattern into the space within the breeding farm and sensing the laser pattern reflected from the object.

실시예에서 영상 데이터는 N X M의 픽셀로 구성되는 영상 데이터일 수 있다.In an embodiment, the image data may be image data composed of N x M pixels.

실시예에서 블록은 영상 데이터의 단일 픽셀 또는 복수개의 픽셀을 포함하는 영역을 포함할 수 있다. In an embodiment, a block may include a single pixel of image data or an area including a plurality of pixels.

실시예에서 위치 분포 데이터는 개별 복수 개체의 위치를 표시하는 것이 아니라, 블록별로 개체, 개체의 몸통 또는 개체의 머리가 존재할 수 있는 확률을 나타내는 데이터이다. 즉, 위치 분포 데이터는 단일 픽셀 또는 구분된 영역을 포함하는 복수개의 픽셀별로 개체, 개체의 몸통 또는 개체의 머리가 존재할 수 있는 확률을 나타내는 데이터이다.In the embodiment, the position distribution data does not indicate the positions of individual plural objects, but is data indicating the probability that an object, a body of an object, or a head of an object may exist for each block. In other words, position distribution data is data that represents the probability that an object, the body of an object, or the head of an object may exist for a single pixel or a plurality of pixels including a divided area.

위치 분포 데이터는 영상 데이터에서 블록별로 개체의 존재 여부가 확률로서 표시된 데이터를 포함할 수 있다. 실시예에서, 위치 분포 데이터는 각 픽셀에 개체가 존재할 확률을 0 내지 255단계로 구분되는 각각 상이한 색으로 표현하는 히트맵일 수 있다.The location distribution data may include data indicating the presence or absence of an object as a probability for each block in the image data. In an embodiment, the location distribution data may be a heatmap that expresses the probability that an object exists in each pixel using different colors divided into levels from 0 to 255.

제1특징 추출 유닛(112)은 복수 개체를 포함하는 이미지로부터 생성된 영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성할 수 있다.The first feature extraction unit 112 may generate position distribution data indicating the location distribution of the plurality of objects using image data generated from an image including the plurality of objects.

제1특징 추출 유닛(112)은 제1기간동안 생성된 적어도 하나의 제1영상 데이터를 이용하여 각각의 제1영상 데이터에 대한 적어도 하나의 제1위치 분포 데이터를 생성할 수 있다.The first feature extraction unit 112 may generate at least one first location distribution data for each first image data using at least one first image data generated during the first period.

또한, 제1특징 추출 유닛(112)은 제2기간동안 생성된 적어도 하나의 제2영상 데이터를 이용하여 각각의 제2영상 데이터에 대한 적어도 하나의 제2위치 분포 데이터를 생성할 수 있다.Additionally, the first feature extraction unit 112 may generate at least one second location distribution data for each second image data using at least one second image data generated during the second period.

또한, 제1특징 추출 유닛(112)은 제2기간 동안 생성된 적어도 하나의 영상 데이터로부터 급이 영역 및 급수 영역중 적어도 하나의 영역을 검출할 수 있다. Additionally, the first feature extraction unit 112 may detect at least one of the feeding area and the water supply area from at least one image data generated during the second period.

제1특징 추출 유닛(112)은 영상 데이터에서 개체의 외곽선을 검출하고, 검출된 외곽선과 데이터 베이스(119)에 미리 저장된 동물 개체의 외형을 비교하여 미리 저장된 동물 개체의 외형과 매칭되는 외곽선내의 블록을 개체가 존재할 확률이 높은 블록으로 검출할 수 있다. 이때, 데이터 베이스(119)에 저장된 동물 개체의 외형은 적어도 하나 이상의 동물 개체의 외형일 수 있으며, 제1특징 추출 유닛(112)은 상술한 바와 같이 매칭되는 외곽선을 가진 블록을 개체로서 검출함과 동시에 해당 동물 개체의 종류도 판단할 수 있다.The first feature extraction unit 112 detects the outline of the object from the image data, compares the detected outline with the outline of the animal object pre-stored in the database 119, and selects a block within the outline that matches the pre-stored outline of the animal object. can be detected as a block with a high probability of an entity existing. At this time, the appearance of the animal entity stored in the database 119 may be that of at least one animal entity, and the first feature extraction unit 112 detects a block with a matching outline as an entity as described above. At the same time, the type of animal can be determined.

또한, 예를 들면, 제1특징 추출 유닛(112)은 영상 데이터 내의 블록의 특징점을 추출하고, 추출된 특징점이 데이터 베이스(119)에 미리 저장된 동물 개체의 특징점에 임계치 이상의 근접도로 매칭되면, 해당 영상 데이터 내의 블록을 개체가 존재할 확률이 높은 블록으로 검출할 수 있다. 이때, 제1특징 추출 유닛(112)은 비교 대상이 되는 블록과 개체의 영상에서 특징점을 추출하고, 추출된 두 개체의 특징점 기술자(descriptor)를 매칭하는 SIFT(Scale Invariant Feature Transform) 또는SURF(Speeded Up Robust Features) 알고리즘을 사용할 수 있다.In addition, for example, the first feature extraction unit 112 extracts the feature points of a block in the image data, and if the extracted feature point matches the feature point of an animal object previously stored in the database 119 with a proximity greater than a threshold value, the first feature extraction unit 112 extracts the feature point of the block in the image data. Blocks in image data can be detected as blocks with a high probability of an object existing. At this time, the first feature extraction unit 112 extracts feature points from the images of the block and object being compared, and uses SIFT (Scale Invariant Feature Transform) or SURF (Speeded Feature Transform) that matches feature point descriptors of the two extracted objects. Up Robust Features) algorithm can be used.

또한, 예를 들면, 제1특징 추출 유닛(112)은 영상 데이터에서 블록의 윤곽을 기초로 동물 개체를 검출할 수 있다. 보다 구체적으로, 제1특징 추출 유닛(112)은 영상 데이터에서 블록의 윤곽을 검출하여 에지 영상을 생성하고, 데이터 베이스(119)에 미리 저장된 사육장의 배경 영상인 전경 영상 데이터로부터 윤곽을 검출하여 배경 에지 영상을 생성하며, 에지 영상에서 배경 에지 영상을 뺀 차 영상(different image) 에서 개체 존재 확률을 검출할 수 있다. 이때, 제1특징 추출 유닛(112)은 영상 데이터 프레임의 그래디언트(gradient) 정보를 이용하여 프레임 내에 나타나는 개체의 윤곽을 에지로 검출하여 에지 영상을 생성한다. 여기서, 그래디언트 정보는 프레임에서 소정의 화소들 중 인접하는 화소들 간의 차이값으로부터 생성된 값으로서 차이의 절대값의 합을 의미하고, 에지는 그래디언트 정보를 이용한 개체 간의 경계선을 의미한다.Additionally, for example, the first feature extraction unit 112 may detect an animal entity based on the outline of a block in image data. More specifically, the first feature extraction unit 112 detects the outline of a block in the image data to generate an edge image, and detects the outline from the foreground image data, which is the background image of the breeding farm, previously stored in the database 119. An edge image is generated, and the probability of the existence of an object can be detected from a difference image obtained by subtracting the background edge image from the edge image. At this time, the first feature extraction unit 112 generates an edge image by detecting the outline of an object appearing in the frame as an edge using gradient information of the image data frame. Here, gradient information is a value generated from difference values between adjacent pixels among predetermined pixels in a frame and means the sum of the absolute values of the differences, and edge means a boundary line between objects using gradient information.

또한, 제1특징 추출 유닛(112)은 기촬영된 사육장 내 전경의 영상 데이터에서 배경에 해당하는 개체의 에지를 검출하여 배경 에지 영상을 생성할 수 있다. 이때의 배경 에지 영상은 기설정된 영역의 개체들의 윤곽을 배경에지로 검출한 영상일 수 있으나, 기촬영된 사육장(10) 내 전경의 복수개의 영상 데이터 프레임을 비교하여 소정의 횟수이상 반복하여 동일하게 나타나는 개체의 윤곽을 배경에지로 검출한 영상일 수도 있다.Additionally, the first feature extraction unit 112 may generate a background edge image by detecting the edge of an object corresponding to the background from previously photographed image data of the foreground in the breeding farm. At this time, the background edge image may be an image in which the outlines of objects in a preset area are detected as background edges, but the same is repeated a predetermined number of times by comparing a plurality of image data frames of the foreground within the previously photographed breeding farm 10. It may be an image in which the outline of an object that appears is detected as a background edge.

또한, 제1특징 추출 유닛(112)은 개체 검출 분류기를 이용하여 영상 데이터에서 개체 존재 확률을 검출할 수 있다. 이때, 개체 검출 분류기는 동물 개체의 자세나 외부 환경을 달리하여 기촬영한 동물 개체의 영상들로부터 훈련 DB 를 구축하여 학습된 것으로서, 이러한 개체 검출 분류기는 SVM(Support Vector Machine), 신경망, AdaBoost 알고리즘 등을 포함하는 다양한 학습 알고리즘을 통해 동물 개체의 DB 를 생성한다. 구체적으로, 제1특징 추출 유닛(112)은 기 촬영된 사육장 내 배경의 영상 데이터에서 전경에 해당하는 개체의 에지를 검출하고, 영상 데이터에서 검출된 전경 개체의 에지를 적용하고, 전경 개체의 에지가 적용된 영상 데이터의 영역에 개체 검출 분류기를 적용하여 개체 존재 확률을 검출할 수 있다. 제1특징 추출 유닛(112)은 개체, 개체의 머리 및 개체의 몸통 중 적어도 하나에 대한 트레이닝 세트(traning set)를 학습할 수 있다. 제1특징 추출 유닛(112)은 영상 데이터가 입력되면 학습된 알고리즘에 따라 영상 데이터의 블록별로 개체 또는 개체가 아닐 확률을 검출할 수 있다. 또는, 제1특징 추출 유닛(112)은 영상 데이터가 입력되면 학습된 알고리즘에 따라 영상 데이터의 블록별로 개체의 머리 또는 개체의 머리가 아닐 확률을 검출할 수 있다. 제1특징 추출 유닛(112)은 영상 데이터가 입력되면 학습된 알고리즘에 따라 영상 데이터의 블록별로 개체의 몸통 또는 개체의 몸통이 아닐 확률을 검출할 수 있다.본 발명의 실시예에서, 위치 분포 데이터는 복수 개체의 헤드부 및 바디부 중 적어도 하나에 대한 위치 분포 데이터일 수 있다. Additionally, the first feature extraction unit 112 may detect the probability of entity existence in image data using an entity detection classifier. At this time, the object detection classifier is learned by building a training database from images of animal objects taken with different postures or external environments. This object detection classifier uses SVM (Support Vector Machine), neural network, and AdaBoost algorithm. A DB of animal entities is created through various learning algorithms, including: Specifically, the first feature extraction unit 112 detects the edge of an object corresponding to the foreground from the image data of the background in the previously captured breeding farm, applies the edge of the foreground object detected in the image data, and extracts the edge of the foreground object. The probability of the existence of an object can be detected by applying an object detection classifier to the area of the image data to which is applied. The first feature extraction unit 112 may learn a training set for at least one of the object, the object's head, and the object's body. When image data is input, the first feature extraction unit 112 may detect the probability of being an object or not an object for each block of the image data according to a learned algorithm. Alternatively, when image data is input, the first feature extraction unit 112 may detect the head of an object or the probability that it is not the head of an object for each block of the image data according to a learned algorithm. When image data is input, the first feature extraction unit 112 may detect the body of an object or the probability that it is not the body of an object for each block of image data according to a learned algorithm. In an embodiment of the present invention, location distribution data May be location distribution data for at least one of the head portion and body portion of a plurality of objects.

제1특징 추출 유닛(112)은 영상 데이터의 블록에서 개체 헤드부의 존재 확률 분포를 검출하여 헤드부에 대한 분포 데이터를 생성할 수 있다. 본 발명의 실시예에서 헤드부는 개체의 머리를 구성하는 픽셀의 집합을 의미할 수 있다. 예를 들어, 개체가 닭인 경우, 헤드부는 벼슬을 포함하는 머리를 의미할 수 있다.The first feature extraction unit 112 may generate distribution data for the head portion by detecting the probability distribution of the presence of the object head portion in a block of image data. In an embodiment of the present invention, the head part may refer to a set of pixels that constitute the head of an object. For example, if the object is a chicken, the head part may refer to the head including the crest.

또는 제1특징 추출 유닛(112)은 영상 데이터의 블록에서 개체 바디부의 존재 확률 분포를 검출하여 바디부에 대한 분포 데이터를 생성할 수 있다. 본 발명의 실시예에서 바디부는 개체의 개체의 몸통을 구성하는 픽셀의 집합을 의미할 수 있다. 예를 들어, 개체가 닭인 경우, 바디부는 날개, 가슴을 포함하는 몸통을 의미할 수 있다.Alternatively, the first feature extraction unit 112 may detect the probability distribution of the presence of an object body part in a block of image data and generate distribution data for the body part. In an embodiment of the present invention, the body part may refer to a set of pixels that constitute the body of an object. For example, if the object is a chicken, the body part may refer to the body including wings and chest.

제1특징 추출 유닛(112)은 영상 데이터 블록의 외곽선과 데이터 베이스(119)에 미리 저장된 가금류의 헤드부 외형을 비교하여 가금류의 헤드부의 존재 확률 분포를 검출할 수 있다.The first feature extraction unit 112 may compare the outline of the image data block with the appearance of the head of the poultry pre-stored in the database 119 to detect the probability distribution of the presence of the head of the poultry.

또는 제1특징 추출 유닛(112)은 영상 데이터블록의 외곽선과 데이터 베이스(119)에 미리 저장된 가금류의 바디부 외형을 비교하여 가금류의 바디부의 존재 확률 분포를 검출할 수 있다.Alternatively, the first feature extraction unit 112 may compare the outline of the image data block with the outline of the body part of the poultry previously stored in the database 119 to detect the probability distribution of the presence of the body part of the poultry.

또는, 제1특징 추출 유닛(112)은 추출된 특징점이 데이터 베이스(119)에 미리 저장된 가금류 헤드부의 특징점에 임계치 이상의 근접도로 매칭되면, 해당 영상 데이터 내에서 헤드부가 존재할 확률이 높은 블록으로 검출할 수 있다.Alternatively, if the extracted feature point matches the feature point of the poultry head part previously stored in the database 119 with a proximity greater than or equal to a threshold, the first feature extraction unit 112 may detect a block with a high probability of the head part being present in the corresponding image data. You can.

또는, 제1특징 추출 유닛(112)은 추출된 특징점이 데이터 베이스(118)에 미리 저장된 가금류 바디부의 특징점에 임계치 이상의 근접도로 매칭되면, 해당 영상 데이터 내에서 바디부가 존재할 확률이 높은 블록으로 검출할 수 있다.Alternatively, if the extracted feature point matches the feature point of the poultry body part previously stored in the database 118 with a proximity greater than or equal to a threshold, the first feature extraction unit 112 may detect a block with a high probability of the body part being present in the image data. You can.

또한, 제1특징 추출 유닛(112)은 촬영부(111)에서 촬영한 영상 데이터에서 노이즈를 저감하고, 감마 보정(Gamma Correction), 색필터 배열보간(color filter array interpolation), 색 메트릭스(color matrix), 색보정(color correction), 색 향상(color enhancement) 등의 화질 개선을 위한 영상 신호 처리를 수행할 수 있다. 제1특징 추출 유닛(112)은 색채 처리, 블러처리, 에지 강조 처리, 영상 해석 처리, 영상 인식 처리, 영상 이펙트 처리 등도 수행할 수 있다.In addition, the first feature extraction unit 112 reduces noise in the image data captured by the photographing unit 111, and performs gamma correction, color filter array interpolation, and color matrix. ), image signal processing to improve image quality, such as color correction and color enhancement, can be performed. The first feature extraction unit 112 may also perform color processing, blur processing, edge emphasis processing, image analysis processing, image recognition processing, and image effect processing.

제2특징 추출 유닛(113)은 생성된 영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성할 수 있다. The second feature extraction unit 113 may generate motion data representing the movement of a motion object among a plurality of objects using the generated image data.

동작 데이터는 영상 데이터에서 블록별로 움직임 존재 여부가 표시된 데이터를 포함할 수 있다. 실시예에서 동작 데이터는 개별 복수 개체의 움직임을 표시하는 것이 아니라, 블록별로 움직임이 검출되었는지 여부를 나타내는 데이터이다. 즉, 동작 데이터는 단일 픽셀 또는 구분된 영역을 포함하는 복수개의 블록 또는 픽셀별로 움직임이 존재하였는지 여부를 나타내는 데이터이다. 동작 데이터는 개별 개체를 검출한 후 추적하여 움직임이 발생한지 여부를 판단한 데이터가 아니고, 영상 데이터상에서 움직임이 발생한 블록을 직접 검출한 데이터를 의미한다. 즉, 동작 데이터는 위치 분포 데이터상에서 움직임 발생 여부를 검출하는 것이 아니며, 영상 데이터 자체에서 움직임 발생 여부를 검출하는 것으로, 위치 분포 데이터의 개체 존재 확률 여부와는 독립적으로 움직임 발생 여부를 검출한 데이터를 의미한다.The motion data may include data indicating the presence or absence of motion for each block in the image data. In the embodiment, the motion data does not indicate the movement of a plurality of individual objects, but is data indicating whether movement has been detected for each block. That is, motion data is data indicating whether movement exists for a single pixel or a plurality of blocks or pixels including a divided area. Motion data is not data obtained by detecting and tracking individual objects to determine whether movement has occurred, but refers to data that directly detects the block in which movement occurred in the image data. In other words, motion data does not detect whether motion has occurred in the position distribution data, but rather detects whether motion has occurred in the image data itself. It is data that detects whether motion has occurred independently of the probability of the existence of an object in the position distribution data. it means.

실시예에 따른 동작 데이터는 임계값과 비교하여 움직임의 존재여부를 표현한다. Motion data according to an embodiment is compared with a threshold value to express the presence or absence of motion.

실시예에 따른 동작 데이터는 개체의 움직임뿐만 아니라, 개체 이외의 움직임도 표현이 될 수 있다. Motion data according to embodiments may represent not only the movement of an object, but also movements other than the object.

제2특징 추출 유닛(113)은 제1기간동안 생성된 적어도 하나의 제1영상 데이터를 이용하여 각각의 제1영상 데이터에 대한 적어도 하나의 제1동작 데이터를 생성할 수 있다.The second feature extraction unit 113 may generate at least one first motion data for each first image data using at least one first image data generated during the first period.

또한, 제2특징 추출 유닛(113)은 제2기간동안 생성된 적어도 하나의 제2영상 데이터를 이용하여 각각의 제2영상 데이터에 대한 적어도 하나의 제2동작 데이터를 생성할 수 있다.Additionally, the second feature extraction unit 113 may generate at least one second motion data for each second image data using at least one second image data generated during the second period.

제1동작 데이터 및 제2동작 데이터는 각각 제1영상 데이터와 제2영상 데이터를 이용하여 생성되는 것으로, 위치 분포 데이터에 기반하여 생성되는 것은 아니다.The first motion data and the second motion data are generated using first image data and second video data, respectively, and are not generated based on position distribution data.

제2특징 추출 유닛(113)은 단일 영상 데이터 또는 복수개의 연속된 영상 데이터를 이용하여 분포도상의 단일 픽셀 또는 특정 영역을 포함하는 복수개의 블록에서의 움직임을 검출할 수 있다.The second feature extraction unit 113 may detect movement in a single pixel or a plurality of blocks including a specific area on the distribution map using single image data or a plurality of consecutive image data.

실시예에서 동작 데이터는 기 설정되는 움직임 임계값과 비교하여 움직임의 존재여부를 표현한다. In an embodiment, motion data is compared to a preset motion threshold to express the presence or absence of motion.

실시예에 따른 동작 데이터는 개체의 움직임뿐만 아니라, 개체 이외의 움직임도 표현이 될 수 있다. Motion data according to embodiments may represent not only the movement of an object, but also movements other than the object.

제2특징 추출 유닛(113)은 Dense Optical Flow방식을 이용하여 블록별 움직임을 검출할 수 있다. 제2특징 추출 유닛(113)은 영상 데이터상의 모든 픽셀에 대해서 모션 벡터(Motion Vector)를 연산하여 각 픽셀에 대한 움직임을 검출할 수 있다. Dense Optical Flow방식의 경우 모든 픽셀에 대하여 모션 벡터를 연산하기 때문에 검출 정확도는 향상되지만 상대적으로 연산량은 증가하게 된다. 따라서, Dense Optical Flow방식은 이상상황이 발생된 것으로 의심되는 사육장이나 개체 숫자가 매우 많은 사육장 등 검출 정확도가 매우 높게 요구되는 특정 영역에 적용될 수 있다.The second feature extraction unit 113 can detect movement for each block using the Dense Optical Flow method. The second feature extraction unit 113 can detect movement for each pixel by calculating a motion vector for all pixels in the image data. In the case of the Dense Optical Flow method, detection accuracy is improved because motion vectors are calculated for all pixels, but the amount of calculation is relatively increased. Therefore, the Dense Optical Flow method can be applied to specific areas that require very high detection accuracy, such as breeding farms where abnormal situations are suspected to have occurred or breeding farms with a very large number of individuals.

또는 제2특징 추출 유닛(113)은 Sparse Optical Flow방식을 이용하여 블록별 움직임을 검출할 수 있다. 제2특징 추출 유닛(113)은 영상 내 에지와 같은 움직임 추적이 쉬운 특징적인 일부 픽셀에 대해서만 모션 벡터를 연산하여 움직임을 검출할 수 있다. Sparse Optical Flow방식은 연산량이 감소하지만 한정적인 픽셀에 대한 결과만 얻을 수 있다. 따라서, Sparse Optical Flow방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the second feature extraction unit 113 may detect movement for each block using the Sparse Optical Flow method. The second feature extraction unit 113 may detect motion by calculating a motion vector only for some characteristic pixels that are easy to track motion, such as edges in the image. The Sparse Optical Flow method reduces the amount of computation, but results can only be obtained for a limited number of pixels. Therefore, the Sparse Optical Flow method can be applied to breeding grounds with a small number of individuals or to specific areas where individuals do not appear overlapping.

또는 제2특징 추출 유닛(113)은 Block Matching을 이용하여 블록별 움직임을 검출할 수 있다. 제2특징 추출 유닛(113)는 영상을 균등하게 또는 비균등하게 분할하여 분할 영역에 대해 모션 벡터를 연산하여 움직임을 검출할 수 있다. Block Matching은 분할 영역별로 모션 벡터를 연산하기 때문에 연산량이 감소하지만 영역별 모션 벡터에 대한 결과를 산출하기 때문에 검출 정확도가 상대적으로 낮을 수 있다. 따라서, Block Matching방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the second feature extraction unit 113 may detect movement for each block using block matching. The second feature extraction unit 113 may divide the image equally or unevenly and detect motion by calculating a motion vector for the divided area. Block Matching reduces the amount of computation because it calculates motion vectors for each segmented region, but detection accuracy may be relatively low because it calculates results for motion vectors for each region. Therefore, the Block Matching method can be applied to breeding farms with a small number of individuals or to specific areas where individuals do not appear overlapping.

또는 제2특징 추출 유닛(113)은 Continuous Frame Difference방식을 이용하여 블록별 움직임을 검출할 수 있다. 제2특징 추출 유닛(113)은 연속하는 영상 프레임을 픽셀 별로 비교하고, 그 차이만큼의 값을 연산하여 움직임을 검출할 수 있다. Continuous Frame Difference방식은 프레임간 차이값을 이용하여 움직임을 검출하기 때문에, 전체적인 연산량은 감소하지만 부피가 큰 개체 또는 중복되어 나타나는 개체에 대한 검출 정확도가 상대적으로 낮을 수 있다. 또한, Continuous Frame Difference방식은 배경 영상과 움직이지 않는 개체를 구분할 수 없어 정확도가 상대적으로 낮을 수 있다. 따라서, Continuous Frame Difference방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the second feature extraction unit 113 may detect movement for each block using the Continuous Frame Difference method. The second feature extraction unit 113 can detect motion by comparing consecutive image frames for each pixel and calculating a value equal to the difference. Since the Continuous Frame Difference method detects motion using the difference value between frames, the overall amount of calculation is reduced, but the detection accuracy for bulky objects or overlapping objects may be relatively low. Additionally, the Continuous Frame Difference method cannot distinguish between background images and non-moving objects, so its accuracy may be relatively low. Therefore, the Continuous Frame Difference method can be applied to breeding grounds with a small number of individuals or to specific areas where individuals do not appear overlapping.

또는 제2특징 추출 유닛(113)은 Background Subtraction방식을 이용하여 블록별 움직임을 검출할 수 있다. 제2특징 추출 유닛(113)은 배경 영상을 초기에 학습한 상태에서 연속하는 영상 프레임을 픽셀 별로 비교하고, 그 차이만큼의 값을 연산하여 움직임을 검출할 수 있다. Background Subtraction방식은 배경 영상을 미리 학습하고 있기 때문에 배경 영상과 움직이지 않는 개체를 구분할 수 있다. 따라서, 배경 영상을 필터링하는 별도의 과정이 필요하여 연산량은 증가하지만 정확도는 향상된다. 따라서, Background Subtraction방식은 이상상황이 발생된 것으로 의심되는 사육장이나 개체 숫자가 매우 많은 사육장 등 검출 정확도가 매우 높게 요구되는 특정 영역에 적용될 수 있다. Background Subtraction방식에서 배경 영상은 지속적으로 업데이트 될 수 있다.Alternatively, the second feature extraction unit 113 may detect movement for each block using the Background Subtraction method. The second feature extraction unit 113 may detect motion by comparing successive image frames for each pixel while initially learning the background image, and calculating a value equal to the difference. Since the Background Subtraction method learns the background image in advance, it can distinguish between the background image and non-moving objects. Therefore, a separate process for filtering the background image is required, which increases the amount of computation but improves accuracy. Therefore, the Background Subtraction method can be applied to specific areas that require very high detection accuracy, such as breeding farms where abnormal situations are suspected to have occurred or breeding farms with a very large number of individuals. In the Background Subtraction method, the background image can be continuously updated.

제2특징 추출 유닛(113)은 사육장내의 환경과 외부의 설정에 따라 적절한 방식을 이용하여 분포도상에서 움직임을 검출한다.The second feature extraction unit 113 detects movement on the distribution map using an appropriate method according to the environment in the breeding farm and external settings.

제어부(114)는 제1기간 동안 생성된 제1위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성하고, 제2기간 동안 생성된 제2위치 분포 데이터 및 제2동작 데이터를 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성할 수 있다.The control unit 114 generates abnormal entity candidate data representing an abnormal entity candidate by comparing the first location distribution data and the first motion data generated during the first period, and the second location distribution data and the first motion data generated during the second period. 2Anomalous entity data representing the abnormal entity can be generated by comparing the motion data with the abnormal entity candidate data.

본 발명의 실시예에서, 이상 개체 후보 데이터는 제1 위치 분포 데이터에서 개체의 존재 확률이 있으면서 제1동작 데이터상에서 움직임이 검출되지 않은 블록의 집합을 포함할 수 있다. 이상 개체 후보 데이터는 급이 및 급수가 진행되지 않은 기간 동안 개체의 존재 확률이 있는 블록 중 움직임이 검출되지 않은 블록을 이상 개체 후보로 판단하여 이에 대한 정보를 기록한 데이터를 의미한다.In an embodiment of the present invention, the abnormal entity candidate data may include a set of blocks in which there is a probability of existence of an entity in the first location distribution data but no movement is detected in the first motion data. Abnormal entity candidate data refers to data in which a block in which no movement was detected among blocks with a probability of existence of an entity during a period in which feeding or water supply was not in progress was determined to be an abnormal entity candidate and information about it was recorded.

본 발명의 실시예에서, 이상 개체 데이터는 이상 개체 후보 중, 제2 위치 분포 데이터에서 개체의 존재 확률이 있으면서 제2동작 데이터상에서 움직임이 검출되지 않은 블록의 집합을 포함할 수 있다. 이상 개체 데이터는 이상 개체 후보로 판단된 블록 중, 급이 및 급수 중 적어도 하나가 진행되는 기간 동안 개체의 존재 확률이 있는 블록 중 움직임이 검출되지 않은 블록을 이상 개체로 판단하여 이에 대한 정보를 기록한 데이터를 의미한다.In an embodiment of the present invention, the abnormal entity data may include a set of blocks among abnormal entity candidates for which there is a probability of existence of the entity in the second location distribution data but no movement is detected in the second motion data. Abnormal object data refers to blocks in which movement was not detected among blocks with a probability of existence of an object during the period when at least one of feeding and watering is in progress, which is determined to be an abnormal object and records information about it. It means data.

제어부(114)는 기 저장된 급이 및 급수 타임 테이블을 통하여 제1기간과 제2기간을 구분할 수 있다. 제어부(114)는 데이터베이스(119)에 저장된 급이 및 급수 타임 테이블을 이용하여 제1기간과 제2기간을 구분하고, 생성된 영상 데이터, 위치 분포 데이터, 동작 데이터를 기간에 따라 구분할 수 있다.The control unit 114 can distinguish between the first period and the second period through the previously stored feeding and water supply time table. The control unit 114 can divide the first period and the second period using the feeding and watering time table stored in the database 119, and divide the generated image data, location distribution data, and motion data according to the period.

또한, 제어부(114)는 외부로부터 급이 및 급수 타임 테이블을 수신하여 제1기간과 상기 제2기간을 구분할 수 있다. 제어부(114)는 통신부(115)를 통하여 관리서버, 공조장치와 데이터 통신을 수행할 수 있으며, 주기적으로 또는 요청에 따라 급이 및 급수 타임 테이블을 수신할 수 있다. Additionally, the control unit 114 may receive a feeding and watering time table from the outside and distinguish between the first period and the second period. The control unit 114 can perform data communication with the management server and the air conditioning device through the communication unit 115, and can receive feeding and watering time tables periodically or upon request.

또한, 제어부(114)는 제1 동작 데이터와 제2 동작 데이터를 이용하여 제1기간과 제2기간을 구분할 수 있다. 가름류는 급이, 급수가 진행되는 제2기간에는 제1기간과 비교하여 큰 움직임을 보이거나, 급이대 또는 급수대 근처로 모이는 행동 패턴을 보인다. 따라서, 제어부(114)는 제1 동작 데이터와 제2 동작 데이터를 이용하여 가금류의 움직임 벡터의 총합계 또는 평균값이 급격하게 증가하는 시점을 검출하여 제1기간과 제2기간을 구분할 수 있다. 또는, 제어부(114)는 기 지정된 위치인 급이대 또는 급수대를 향한 움직임값이 급격하게 증가하는 시점을 검출하여 제1기간과 제2기간을 구분할 수 있다.Additionally, the control unit 114 may distinguish between the first period and the second period using the first motion data and the second motion data. During the second period of feeding and watering, snails show greater movement compared to the first period or show a behavior pattern of gathering near the feeding station or watering station. Accordingly, the control unit 114 can use the first motion data and the second motion data to detect the point in time when the total or average value of the poultry's motion vector suddenly increases and distinguish between the first period and the second period. Alternatively, the control unit 114 may detect the point in time when the movement value toward the feeding station or water station, which is a pre-designated location, suddenly increases, and distinguish between the first period and the second period.

또한, 제어부(114)는 이상 개체 후보가 검출된 경우 제1기간과 제2기간 사이에 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력할 수 있다. 제어부(114)는 이상 개체 후보가 검출되어 질병에 걸린 것으로 의심되는 개체가 발견된 경우, 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력하여 제1기간에서 제2기간으로 환경을 전이시킬 수 있다.Additionally, when an abnormal entity candidate is detected, the control unit 114 may output a driving command to at least one of the feeder and the waterer between the first period and the second period. When an abnormal entity candidate is detected and an entity suspected of being diseased is found, the control unit 114 may output an operation command to at least one of the feeder and the waterer to transition the environment from the first period to the second period.

또한, 제어부(114)는 이상 개체 후보 데이터를 이용하여 이상 개체 후보가 검출된 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력할 수 있다. 제어부(114)는 이상 개체 후보가 검출된 영역의 근처에 위치한 급이기와 급수기만을 선별적으로 동작시킴으로써, 이상 개체 후보에 대한 움직임 변화를 관찰할 수 있다. 이 경우 급이기 및 급수기 각각은 독립적으로 동작할 수 있는 구조로 형성되어 있으며, 제어부는 각각의 급이기 및 급수기의 위치 정보를 파악하고 있다.Additionally, the control unit 114 may use the abnormal entity candidate data to output a driving command to at least one of the feeder and waterer assigned to the area where the abnormal entity candidate was detected. The control unit 114 can observe changes in movement of the abnormal object candidate by selectively operating only the feeders and waterers located near the area where the abnormal object candidate is detected. In this case, each of the feeders and waterers is structured to operate independently, and the control unit determines the location information of each feeder and waterer.

또한, 제어부(114)는 이상 개체 후보 데이터를 이용하여 이상 개체 후보가 검출된 영역을 제외한 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력할 수 있다. 제어부(114)는 이상 개체 후보가 검출되지 않은 영역의 근처에 위치한 급이기와 급수기만을 선별적으로 동작시킴으로써, 이상 개체 후보가 상대적으로 멀리 위치한 급이기, 급수기로 이동하는지 여부를 관찰할 수 있다.Additionally, the control unit 114 may use the abnormal entity candidate data to output a driving command to at least one of the feeder and waterer assigned to the area excluding the area where the abnormal entity candidate was detected. The control unit 114 can observe whether the abnormal entity candidate moves to a feeder or waterer located relatively far away by selectively operating only the feeders and waterers located near the area where the abnormal entity candidate is not detected.

제어부(114)는 이상 개체 후보가 제1기간 동안 움직임의 검출이 거의 이루어지지 않아 질병 의심 확률이 클 경우 이상 개체 후보가 검출된 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력하고, 제1기간 동안 움직임이 간헐적으로 검출되어 질병 의심 확률이 상대적으로 낮은 경우에는 이상 개체 후보가 검출된 영역을 제외한 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력할 수 있다. 즉, 질병 의심 확률이 높은 이상 개체 후보의 경우 움직임이 거의 없기 때문에 근처의 급이기, 급수기로 움직임을 유도하고, 질병 의심 확률이 상대적으로 낮은 경우에는 멀리 있는 급이기, 급수기로 움직임을 유도하여 이상 개체인지 여부를 판단할 수 있다.The control unit 114 outputs a driving command to at least one of the feeders and waterers assigned to the area where the abnormal object candidate was detected when the abnormal object candidate hardly detects any movement during the first period and the probability of disease suspicion is high, If movement is detected intermittently during the first period and the probability of disease suspicion is relatively low, a driving command may be output to at least one of the feeders and waterers assigned to the area excluding the area where the abnormal entity candidate was detected. In other words, in the case of an abnormal entity candidate with a high probability of disease suspicion, movement is induced to a nearby feeder or waterer because there is little movement, and if the probability of disease suspicion is relatively low, movement is induced to a distant feeder or waterer. You can determine whether it is an object or not.

또한, 제어부(114)는 급이 영역 및 급수 영역 중 적어도 하나의 영역의 너비 변화를 통하여 이상 개체 데이터를 생성할 수 있다. 제어부(114)는 제1특징 추출 유닛에서 검출한 제2위치 분포 데이터상에서 급이 영역 및 급수 영역의 너비 변화가 어느 정도 발생하는지를 시간흐름에 따라 파악하여 이상 개체 데이터를 생성할 수 있다. 제어부(114)는 제2기간 동안 동작하는 급이기 및 급수기의 위치를 통하여 이상 개체 후보 근처의 급이 영역 및 급수 영역을 판단하고, 해당 급이 영역 및 급수 영역의 너비 변화를 다른 급이 영역 및 급수 영역의 너비 변화와 비교하여 이상 개체 데이터를 생성할 수 있다. 이 때, 제어부(114)는 해당 급이 영역 및 급수 영역의 너비 변화량이 다른 급이 영역 및 급수 영역의 너비 변화량보다 기 설정된 수치보다 작을 경우 이상 개체 후보를 이상 개체로 판단할 수 있다.Additionally, the control unit 114 may generate abnormal entity data through a change in the width of at least one of the feeding area and the water supply area. The control unit 114 may generate abnormal entity data by identifying the extent to which the width of the feeding area and water supply area changes over time in the second position distribution data detected by the first feature extraction unit. The control unit 114 determines the feeding area and watering area near the abnormal object candidate through the positions of the feeder and waterer operating during the second period, and changes the width of the feeding area and watering area to other feeding areas and Abnormal entity data can be generated by comparing the change in width of the water supply area. At this time, the control unit 114 may determine the abnormal object candidate as an abnormal object if the amount of change in width of the corresponding feeding area and water supply area is smaller than the amount of change in width of other feeding areas and water supply areas than a preset value.

또한, 제어부(114)는 급이기 및 급수기 중 적어도 하나의 높이를 조절하는 구동 명령을 출력할 수 있다. 제어부(114)는 이상 개체 후보가 검출된 영역에 할당된 급이기 및 급수기 중 적어도 하나의 높이를 조절하여 이상 개체 후보의 점프 동작을 유도할 수 있다. 제어부(114)는 이 때, 측부에 위치한 촬상 장치에서 촬영한 영상 데이터로부터 생성된 동작 데이터를 이용하여 이상 개체 후보의 점프 동작을 판단할 수 있다.Additionally, the control unit 114 may output a drive command to adjust the height of at least one of the feeder and the waterer. The control unit 114 may adjust the height of at least one of the feeders and waterers assigned to the area where the abnormal entity candidate is detected to induce a jumping motion of the abnormal entity candidate. At this time, the control unit 114 may determine the jumping motion of the abnormal object candidate using motion data generated from image data captured by an imaging device located on the side.

또한, 제어부(114)는 이상 개체 후보 데이터 및 사육장내에 배치된 음성 입력 수단(미도시)의 음성 검출 데이터를 이용하여 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력할 수 있다. 제어부(114)는 이상 개체 후보가 검출된 영역과 음성 검출 데이터가 검출된 영역을 비교하여 중복되는 영역을 판단하고, 중복되는 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력할 수 있다. 제어부(114)는, 이상 개체 후보가 검출된 영역에서 개체의 소리가 검출될 경우 해당 영역의 급이기 및 급수기 중 적어도 하나를 구동시킴으로써 이상 개체 후보의 동작을 유도할 수 있다.Additionally, the control unit 114 may output a driving command to at least one of the feeder and the waterer using abnormal entity candidate data and voice detection data from a voice input means (not shown) disposed in the kennel. The control unit 114 compares the area where the abnormal object candidate was detected and the area where the voice detection data was detected, determines the overlapping area, and outputs a driving command to at least one of the feeder and waterer assigned to the overlapping area. . When the sound of an entity is detected in an area where an abnormal entity candidate is detected, the control unit 114 may induce the operation of the abnormal entity candidate by operating at least one of the feeder and waterer in the area.

제어부(114)는 영상 데이터의 위치 분포 데이터 및 동작 데이터를 비교하여 블록별 개체의 존재 확률 분포와 움직임 검출 여부가 중복되는 블록을 나타내는 이상 개체 데이터를 생성할 수 있다. The control unit 114 may compare the position distribution data and motion data of the image data to generate abnormal object data indicating blocks with overlapping object presence probability distributions for each block and whether or not motion is detected.

제어부(114)는 복수개의 영상 데이터에 대한 위치 분포 데이터 및 동작 데이터를 비교하여 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터에 나타난 블록별 움직임 검출 누적 횟수와 블록별 움직임 비검출 누적 횟수를 연산하고, 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 이상 개체 후보 데이터를 생성할 수 있다.The control unit 114 compares the position distribution data and motion data for a plurality of image data to determine the cumulative number of motion detections for each block and the cumulative number of non-detection motions for each block shown in the motion data among blocks with a probability of presence of an object in the position distribution data. It is possible to calculate and generate abnormal object candidate data according to the accumulated number of motion detections and the accumulated number of motion non-detections.

제어부(114)는 제1기간 동안 생성된 제1위치 분포 데이터 및 제1동작 데이터를 이용하여, 제1위치 분포 데이터 상에서 개체가 존재할 확률이 있는 것으로 판단된 블록 중 움직임이 검출되지 않은 블록을 이상 개체 후보로 판단하여 이에 대한 정보를 나타내는 이상 개체 후보 데이터를 생성할 수 있다. The control unit 114 uses the first position distribution data and the first motion data generated during the first period to select a block in which no movement is detected among the blocks in which it is determined that there is a probability that an object exists in the first position distribution data. If it is determined to be an entity candidate, abnormal entity candidate data representing information about it can be generated.

제어부(114)는 제1기간 동안 생성된 적어도 하나의 제1영상 데이터를 이용하여, 블록별 개체의 존재 확률 분포를 나타내는 제1위치 분포 데이터 상에서 개체가 존재할 확률이 있는 것으로 판단된 블록 중 움직임이 검출되지 않은 블록에 질병에 걸린 개체가 위치한 것으로 추정하고, 이에 대한 이상 개체 후보 데이터를 생성할 수 있다. 제어부(114)는 블록별 개체의 존재 확률 분포를 나타내는 제1위치 분포 데이터 상에서 개체가 존재할 확률이 없는 것으로 판단된 블록에서 움직임이 검출되더라도 이물질이나 노이즈로 판단하고 이상 개체 후보 데이터로 판단하지 않는다. 즉, 이상 개체 후보 데이터는 제1기간 동안 생성된 복수개의 제1영상 데이터에 대하여 누적된 블록의 위치 정보와 움직임 검출 정보를 이용하여 개체의 질병 여부를 1차적으로 판단한 결과 데이터를 의미할 수 있다. The control unit 114 uses at least one first image data generated during the first period to detect movement among blocks in which it is determined that there is a probability of an object existing on the first position distribution data indicating the probability distribution of the existence of the object for each block. It is estimated that a diseased entity is located in an undetected block, and abnormal entity candidate data can be generated for this. Even if movement is detected in a block in which it is determined that there is no probability of an entity existing on the first position distribution data representing the probability distribution of the existence of an entity for each block, the control unit 114 determines it as foreign matter or noise and does not determine it as abnormal entity candidate data. In other words, the abnormal entity candidate data may refer to data resulting from a primary determination of whether the entity is diseased using the position information and motion detection information of the blocks accumulated for the plurality of first image data generated during the first period. .

제어부(114)는 제2기간 동안의 제2영상 데이터로부터 생성된 제2위치 분포 데이터 및 제2동작 데이터를 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성할 수 있다. 제어부(114)는 이상 개체 후보를 대상으로, 제2기간 동안 생성된 제2위치 분포 데이터 상에서 개체가 존재할 확률이 있는 것으로 판단된 블록 중 움직임이 검출되지 않은 블록에 질병에 걸린 개체가 위치한 것으로 판단하고, 이에 대한 이상 개체 데이터를 생성할 수 있다. 제어부(114)는 이상 개체 후보라 하더라도, 제2기간 동안 생성된 제2위치 분포 데이터 상에서 개체가 존재할 확률이 없는 것으로 판단되거나 또는 움직임이 검출된 블록은 이상 개체로 판단하지 않는다. 즉, 제어부는 이상 개체 후보 데이터상에서 이상 개체 후보로 판단된 블록 중, 제2기간 동안 개체 존재 확률이 있으면서 동시에 움직임이 검출되지 않은 블록을 이상 개체로 판단할 수 있다.The control unit 114 may compare the second position distribution data and the second motion data generated from the second image data for the second period with the abnormal entity candidate data to generate abnormal entity data representing the abnormal entity. For abnormal entity candidates, the control unit 114 determines that the diseased entity is located in a block in which no movement was detected among blocks in which it is determined that there is a probability of the entity being present in the second location distribution data generated during the second period. And, abnormal entity data for this can be generated. Even if it is an abnormal entity candidate, the control unit 114 does not determine that a block in which there is no probability of an entity existing or in which movement is detected in the second location distribution data generated during the second period is an abnormal entity. That is, the control unit may determine that, among blocks determined to be abnormal entity candidates in the abnormal entity candidate data, a block in which there is a probability of the existence of an entity during the second period but in which no movement is detected is an abnormal entity.

제어부(114)는 예를 들면, 제1기간 동안 생성된 제1위치 분포 데이터 및 제1동작 데이터를 이용하여 이상 개체 후보 데이터를 생성하고, 제2기간 동안 생성된 제2위치 분포 데이터, 제2동작 데이터 및 이상 개체 후보 데이터를 이용하여 이상 개체 데이터를 생성할 수 있다. 또는 제어부(114)는 예를 들면, 제1기간 동안 생성된 복수개의 제1위치 분포 데이터 및 복수개의 제1동작 데이터를 이용하여 이상 개체 후보 데이터를 생성하고, 제2기간 동안 생성된 복수개의 제2위치 분포 데이터, 복수개의 제2동작 데이터 및 이상 개체 후보 데이터를 이용하여 이상 개체 데이터를 생성할 수 있다. For example, the control unit 114 generates abnormal entity candidate data using first position distribution data and first motion data generated during a first period, second position distribution data generated during a second period, and second Abnormal entity data can be created using motion data and abnormal entity candidate data. Alternatively, the control unit 114 may generate abnormal entity candidate data using, for example, a plurality of first position distribution data and a plurality of first motion data generated during a first period, and a plurality of first position distribution data generated during a second period. Abnormal entity data can be generated using two-position distribution data, a plurality of second motion data, and abnormal entity candidate data.

제어부(114)는 이상 개체 후보 데이터 및 이상 개체 데이터 중 적어도 하나의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 영상 데이터 상에서 블록별 픽셀 표시를 제어할 수 있다. 여기서, 픽셀의 표시란 픽셀의 채도, 픽셀의 명암, 픽셀의 색상, 픽셀의 윤곽선, 마크 표시 등 임의의 지점에 대응되는 픽셀을 다른 픽셀과 구분하여 표시하기 위한 모든 개념을 포함할 수 있다. 본 발명의 실시예에서는 픽셀값의 조절을 통하여 픽셀의 표시를 제어할 수 있다. 픽셀값은 단계적으로 조절될 수 있으며, 픽셀값이 높은 픽셀의 경우, 픽셀값이 낮은 픽셀 보다 시각적으로 강조되어 표시될 수 있다. 그러나 이에 한정되는 것은 아니고, 픽셀값이 낮은 픽셀이 픽셀값이 높은 픽셀보다 강조되어 표시되는 것으로 설정할 수 있다. The control unit 114 may control the display of pixels for each block on the image data according to the accumulated number of motion detections and the accumulated number of non-motion detections of at least one of the abnormal object candidate data and the abnormal object data. Here, pixel display may include all concepts for distinguishing and displaying a pixel corresponding to an arbitrary point from other pixels, such as pixel saturation, pixel brightness, pixel color, pixel outline, and mark display. In an embodiment of the present invention, the display of pixels can be controlled by adjusting pixel values. Pixel values can be adjusted in stages, and pixels with high pixel values can be displayed with greater visual emphasis than pixels with low pixel values. However, it is not limited to this, and pixels with low pixel values can be set to be displayed with greater emphasis than pixels with high pixel values.

제어부(114)는 제1기간 동안 생성된 복수개의 제1위치 분포 데이터, 제1동작 데이터 및 이상 개체 후보 데이터를 비교하여 제1기간 동안의 블록별 움직임 검출 누적 횟수와 복수 개체의 움직임 비검출 누적 횟수를 연산하고, 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 영상 데이터의 블록별 픽셀 표시를 제어할 수 있다.The control unit 114 compares the plurality of first position distribution data, first motion data, and abnormal object candidate data generated during the first period to calculate the accumulated number of motion detections for each block during the first period and the accumulated number of motion non-detection data for the plurality of objects. It is possible to calculate the number of times and control the display of pixels for each block of image data according to the accumulated number of motion detections and the accumulated number of motion non-detections.

또는 제어부(114)는 이상 개체 후보 데이터, 제2기간 동안 생성된 복수개의 제2위치 분포 데이터, 제2동작 데이터를 비교하여 제1기간 및 제2기간 동안의 블록별 움직임 검출 누적 횟수와 복수 개체의 움직임 비검출 누적 횟수를 연산하고, 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 영상 데이터의 블록별 픽셀 표시를 제어할 수 있다.Alternatively, the control unit 114 compares the abnormal object candidate data, the plurality of second position distribution data generated during the second period, and the second motion data to calculate the cumulative number of motion detections for each block during the first and second periods and the plurality of objects. The cumulative number of non-detection motions can be calculated, and the display of pixels for each block of image data can be controlled according to the accumulated number of motion detections and the accumulated number of non-motion detections.

제어부(114)는 개체가 존재할 확률이 있는 블록의 움직임이 누적 검출될 수록 정상개체로 분류하고, 움직임이 누적 검출되지 않을수록 이상개체로 분류하여 영상 데이터의 픽셀값을 다르게 표시할 수 있다. The control unit 114 may display pixel values of the image data differently by classifying the object as a normal object as movement of blocks in which there is a probability of the object being present is cumulatively detected, and as movement is not cumulatively detected, classifying it as an abnormal object.

예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터의 움직임 비검출 누적 횟수에 따라 대응되는 블록의 블록값을 단계적으로 증가시킬 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임이 검출되지 않는 횟수가 제2기간 동안 누적된다면 해당 블록의 블록값을 단계적으로 증가시켜 강조 표시할 수 있다.For example, the control unit 114 may gradually increase the block value of the corresponding block according to the accumulated number of motion non-detection counts in the motion data among blocks in which there is a probability of the existence of an object in the position distribution data. If the number of times that movement of a block classified as an abnormal entity candidate is not detected in the abnormal entity candidate data accumulates during the second period, the control unit 114 may gradually increase the block value of the corresponding block to highlight it.

예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터의 연속된 움직임 비검출 누적 횟수에 따라 대응되는 블록의 블록값을 단계적으로 증가시킬 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임이 검출되지 않는 연속 횟수가 제2기간 동안 누적된다면 해당 블록의 블록값을 단계적으로 증가시켜 강조 표시할 수 있다.For example, the control unit 114 may gradually increase the block value of the corresponding block according to the accumulated number of consecutive motion non-detection counts in the motion data among blocks with a probability of existence of an object in the position distribution data. If the number of consecutive times in which no movement of a block classified as an abnormal entity candidate is detected in the abnormal entity candidate data is accumulated during the second period, the control unit 114 may gradually increase the block value of the corresponding block to highlight it.

예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터의 움직임 비검출 누적 횟수가 제1임계값을 초과할 경우 대응되는 블록의 블록값을 제1설정값으로 제어할 수 있다. 제1설정값은 블록값의 최댓값일 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임 비검출 누적 횟수가 제1임계값을 초과할 경우 해당 블록의 블록값을 최대한으로 강조 표시할 수 있다.For example, if the accumulated number of motion non-detection counts of motion data among blocks with a probability of existence of an object in the position distribution data exceeds the first threshold, the control unit 114 sets the block value of the corresponding block to the first set value. You can control it. The first set value may be the maximum value of the block value. If the cumulative number of motion non-detection counts for a block classified as an abnormal entity candidate in the abnormal entity candidate data exceeds the first threshold, the control unit 114 may highlight the block value of the corresponding block as much as possible.

예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터의 연속된 움직임 비검출 누적 횟수가 제1임계값을 초과할 경우 대응되는 블록의 블록값을 제1설정값으로 제어할 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임 비검출 누적 연속 횟수가 제1임계값을 초과할 경우 해당 블록의 블록값을 최대한으로 강조 표시할 수 있다.For example, when the accumulated number of consecutive motion non-detection counts of motion data among blocks with a probability of existence of an object in the position distribution data exceeds the first threshold, the control unit 114 first sets the block value of the corresponding block. It can be controlled by value. The control unit 114 may highlight the block value of the block as much as possible when the cumulative number of consecutive motion non-detection times for a block classified as an abnormal object candidate in the abnormal entity candidate data exceeds the first threshold.

예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터의 움직임 검출 누적 횟수에 따라 대응되는 블록의 블록값을 단계적으로 감소시킬 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임 검출 횟수가 누적된다면 해당 블록의 블록값을 단계적으로 감소시켜 비강조 표시할 수 있다.For example, the control unit 114 may gradually reduce the block value of the corresponding block according to the accumulated number of motion detections of motion data among blocks with a probability of existence of an object in the position distribution data. If the number of motion detections of a block classified as an abnormal object candidate in the abnormal entity candidate data is accumulated, the control unit 114 may gradually reduce the block value of the corresponding block and de-emphasize the display.

예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터의 연속된 움직임 검출 누적 횟수에 따라 대응되는 블록의 블록값을 단계적으로 감소시킬 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임 검출 연속 횟수가 누적된다면 해당 블록의 블록값을 단계적으로 감소시켜 비강조 표시할 수 있다.For example, the control unit 114 may gradually reduce the block value of the corresponding block according to the accumulated number of consecutive motion detections of motion data among blocks with a probability of existence of an object in the position distribution data. If the number of consecutive motion detections of a block classified as an abnormal object candidate in the abnormal entity candidate data is accumulated, the control unit 114 may gradually reduce the block value of the corresponding block and de-emphasize the display.

예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터에서 움직임이 검출된 블록의 블록값을 제2설정값으로 제어할 수 있다. 제2설정값은 원본 영상 데이터의 블록값일 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임이 검출될 경우 해당 블록의 블록값을 최소한으로 비강조 표시할 수 있다.For example, the control unit 114 may control the block value of a block in which movement is detected in the motion data among blocks in which there is a probability of the existence of an object in the position distribution data as the second setting value. The second setting value may be a block value of the original image data. If movement of a block classified as an abnormal entity candidate is detected in the abnormal entity candidate data, the control unit 114 may de-emphasize the block value of the block to a minimum.

예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터에서 움직임이 검출된 블록을 이상 개체 후보 데이터 또는 이상 개체 데이터에서 제외시킬 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임이 검출될 경우 해당 블록을 이상 개체 데이터에서 제외시킬 수 있다.For example, the control unit 114 may exclude a block in which movement is detected in the motion data among blocks with a probability of the presence of an object in the position distribution data from the abnormal entity candidate data or the abnormal entity data. If movement of a block classified as an abnormal entity candidate is detected in the abnormal entity candidate data, the control unit 114 may exclude the block from the abnormal entity candidate data.

예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터의 움직임 검출 누적 횟수가 제2임계값을 초과할 경우 대응되는 블록의 블록값을 제2설정값으로 제어할 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임 검출 누적 횟수가 제2임계값을 초과할 경우 해당 블록의 블록값을 최소한으로 비강조 표시할 수 있다.For example, if the accumulated number of motion detections of motion data among blocks with a probability of existence of an object in the position distribution data exceeds the second threshold, the control unit 114 controls the block value of the corresponding block to the second set value. can do. If the accumulated number of motion detections of a block classified as an abnormal entity candidate in the abnormal entity candidate data exceeds the second threshold, the control unit 114 may de-emphasize the block value of the corresponding block to a minimum.

예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터의 움직임 검출 누적 횟수가 제2임계값을 초과한 블록을 이상 개체 후보 데이터 또는 이상 개체 데이터에서 제외시킬 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임 검출 누적 횟수가 제2임계값을 초과할 경우 해당 블록을 이상 개체 데이터에서 제외시킬 수 있다.For example, the control unit 114 may exclude blocks in which the cumulative number of motion detections of motion data exceeds the second threshold among blocks with a probability of existence of an object in the position distribution data from the abnormal object candidate data or the abnormal object data. there is. If the accumulated number of motion detections of a block classified as an abnormal entity candidate in the abnormal entity candidate data exceeds a second threshold, the control unit 114 may exclude the block from the abnormal entity candidate data.

예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터의 연속된 움직임 검출 누적 횟수가 제2임계값을 초과할 경우 대응되는 블록의 블록값을 제2설정값으로 제어할 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임 검출 연속 누적 횟수가 제2임계값을 초과할 경우 해당 블록의 블록값을 최소한으로 비강조 표시할 수 있다.For example, when the accumulated number of consecutive motion detections of motion data among blocks with a probability of existence of an object in the position distribution data exceeds the second threshold, the control unit 114 sets the block value of the corresponding block to the second set value. It can be controlled with . If the cumulative number of consecutive motion detections of a block classified as an abnormal entity candidate in the abnormal entity candidate data exceeds the second threshold, the control unit 114 may de-emphasize the block value of the corresponding block to a minimum.

예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터의 연속된 움직임 검출 누적 횟수가 제2임계값을 초과할 경우 대응되는 블록을 이상 개체 후보 데이터 또는 이상 개체 데이터에서 제외시킬 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임 검출 연속 누적 횟수가 제2임계값을 초과할 경우 해당 블록을 이상 개체 데이터에서 제외시킬 수 있다.For example, if the accumulated number of consecutive motion detections of motion data among blocks with a probability of existence of an object in the position distribution data exceeds the second threshold, the control unit 114 selects the corresponding block as abnormal object candidate data or abnormal object It can be excluded from the data. If the cumulative number of consecutive motion detections of a block classified as an abnormal entity candidate in the abnormal entity candidate data exceeds the second threshold, the control unit 114 may exclude the block from the abnormal entity candidate data.

제어부(114)는 촬상 장치(100)의 동작을 위한 각종 명령을 수행할 수 있다. The control unit 114 may execute various commands for operating the imaging device 100.

제어부(114)는 예를 들면, 유저 인터페이스부(117) 또는 데이터 베이스(119)에 저장된 명령을 수행하여 촬상 장치(100)의 동작을 수행할 수 있다.For example, the control unit 114 may operate the imaging device 100 by executing commands stored in the user interface unit 117 or the database 119.

또는 제어부(114)는 관리 서버(200)로부터 수신한 명령을 이용하여 촬상 장치(100)의 각종 동작을 제어할 수 있다.Alternatively, the control unit 114 may control various operations of the imaging device 100 using commands received from the management server 200.

제어부(114)는 촬영부(11)를 제어하여 움직임 검출 누적 횟수가 제3설정값 이상인 블록을 추적 촬영할 수 있다. 제3설정값은 유저 인터페이스부(117)를 통하여 설정되거나 또는 관리 서버(200)의 제어 명령을 통하여 설정될 수 있다. 제어부(114)는 촬영부(111)를 제어하여 이상개체가 있는 특정 영역을 추적 촬영하여 영상 데이터를 생성하게 함으로써 지속적인 모니터링을 수행할 수 있게 한다.The control unit 114 can control the photographing unit 11 to track and photograph blocks whose cumulative number of motion detections is equal to or greater than a third set value. The third setting value may be set through the user interface unit 117 or through a control command of the management server 200. The control unit 114 controls the imaging unit 111 to track and photograph a specific area where an abnormal object is located and generate image data, thereby enabling continuous monitoring.

이 때, 제어부(114)는 촬상 장치(100)의 팬틸트부(122)를 제어하여 추적 촬영을 수행할 수 있다. 팬틸트부(122)는 팬(Pan, 수평방향) 및 틸트(Tilt, 수직 방향) 2개의 모터를 구동하여 촬영부(111)의 촬영 영역을 제어할 수 있다. 팬틸트부(122)는 제어부(114)의 제어에 따라 특정 영역을 촬영하기 위하여 촬영부(111)의 지향 방향을 조절할 수 있다. 또한, 팬틸트부(122)는 제어부(114)의 제어에 따라 특정 블록을 트래킹하기 위하여 촬영부(111)의 지향 방향을 조절할 수 있다.At this time, the control unit 114 may control the pan/tilt unit 122 of the imaging device 100 to perform tracking imaging. The pan/tilt unit 122 can control the photographing area of the photographing unit 111 by driving two motors, pan (horizontal direction) and tilt (vertical direction). The pan/tilt unit 122 can adjust the direction of the photographing unit 111 to photograph a specific area under the control of the controller 114. Additionally, the pan/tilt unit 122 can adjust the direction of the photographing unit 111 to track a specific block under the control of the control unit 114.

통신부(115)는 타 촬상 장치, 데이터 수집장치(150) 또는 관리 서버(200)와 데이터 통신을 수행할 수 있다. 예를 들면, 통신부(115)는 무선랜(Wireless LAN: WLAN), 와이 파이(Wi-Fi), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등의 원거리 통신 기술을 사용하여 데이터 통신을 수행할 수 있다.The communication unit 115 may perform data communication with another imaging device, the data collection device 150, or the management server 200. For example, the communication unit 115 supports wireless LAN (WLAN), Wi-Fi, Wibro (Wireless Broadband), World Interoperability for Microwave Access (Wimax), and High Speed Downlink (HSDPA). Data communication can be performed using long-distance communication technologies such as Packet Access, IEEE 802.16, Long Term Evolution (LTE), and Wireless Mobile Broadband Service (WMBS).

또는 통신부(115)는 블루투스, RFID(RadioFrequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비, 인접 자장 통신(NFC) 등이 포함될 수 있다. 또한, 유선 통신 기술로는, USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등의 근거리 통신 기술을 사용하여 데이터 통신을 수행할 수 있다.Alternatively, the communication unit 115 may include Bluetooth, RadioFrequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), etc. Additionally, as a wired communication technology, data communication can be performed using short-distance communication technologies such as USB communication, Ethernet, serial communication, and optical/coaxial cables.

예를 들면, 통신부(115)는 근거리 통신 기술을 사용하여 타 촬상 장치 또는 데이터 수집장치(150)와 데이터 통신을 수행하고, 원거리 통신 기술을 사용하여 관리 서버(200)와 데이터 통신을 수행할 수 있다, 그러나 이에 한정되는 것은 아니고, 사육장(10)의 제반 사항 등을 고려하여 다양한 통신 기술이 사용될 수 있다.For example, the communication unit 115 may perform data communication with another imaging device or data collection device 150 using short-range communication technology, and may perform data communication with the management server 200 using long-distance communication technology. However, the communication technology is not limited to this, and various communication technologies may be used in consideration of all matters of the breeding farm 10.

통신부(115)는 촬영부(111)에서 촬영한 원본 영상 데이터를 데이터 수집장치(150) 또는 관리 서버(200)에 전송할 수 있다.The communication unit 115 may transmit original image data captured by the photographing unit 111 to the data collection device 150 or the management server 200.

또는 통신부(115)는 데이터 수집장치(150) 또는 원격의 관리 서버(200) 중 적어도 하나로 픽셀값이 조절된 영상 데이터, 위치 분포 데이터, 동작 데이터 및 좌표 정보 중 적어도 하나를 전송할 수 있다. 이 때, 좌표 정보는 이상개체로 의심되는 지점 또는 개체에 대한 좌표를 의미할 수 있다.Alternatively, the communication unit 115 may transmit at least one of image data with adjusted pixel values, location distribution data, motion data, and coordinate information to at least one of the data collection device 150 or the remote management server 200. At this time, the coordinate information may mean the coordinates of a point or object suspected to be an abnormal object.

통신부(115)를 통하여 전송되는 데이터는 인코딩부(118)를 통하여 인코딩된 압축 데이터일 수 있다.Data transmitted through the communication unit 115 may be compressed data encoded through the encoding unit 118.

표시부(116)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 116 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. ), a 3D display, and an e-ink display.

표시부(116)는 제어부(114)를 통하여 픽셀값이 조절된 영상 데이터 및 분포 데이터 중 적어도 하나를 디스플레이할 수 있다.The display unit 116 may display at least one of image data and distribution data whose pixel values have been adjusted through the control unit 114.

또한, 표시부(116)는 촬영부(111)에서 촬영한 원본 영상 데이터를 화면에 출력할 수 있다. Additionally, the display unit 116 can output original image data captured by the photographing unit 111 on the screen.

또한, 표시부(116)는 다양한 사용자 인터페이스 또는 그래픽 사용자 인터페이스를 화면에 출력할 수 있다.Additionally, the display unit 116 can output various user interfaces or graphic user interfaces on the screen.

유저 인터페이스부(117)는 촬상 장치(100)의 동작 제어를 위한 입력 데이터를 발생시킨다. 유저 인터페이스부(117)는 키 패드, 돔 스위치, 터치 패드, 조그 휠, 조그 스위치 등으로 구성될 수 있다. 표시부(116)와 터치패드가 상호 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 표시부(116)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. The user interface unit 117 generates input data for controlling the operation of the imaging device 100. The user interface unit 117 may be composed of a key pad, dome switch, touch pad, jog wheel, jog switch, etc. When the display unit 116 and the touch pad form a layered structure to form a touch screen, the display unit 116 can be used as an input device in addition to an output device.

유저 인터페이스부(117)는 촬상 장치의 동작을 위한 다양한 명령을 입력받을 수 있다.The user interface unit 117 may receive various commands for operating the imaging device.

인코딩부(118)는 촬영부(111)에서 촬영한 원본 영상 데이터 또는 제1특징 추출 유닛(112), 제2특징 추출 유닛(113), 제어부(114) 등을 통하여 가공된 가공 영상 데이터를 디지털 신호로 부호화한다. 예를 들면, 인코딩부(118)는 H.264, H.265, MPEG(Moving Picture Experts Group), M-JPEG(Motion Joint Photographic Experts Group) 표준에 따라 영상 데이터를 인코딩할 수 있다.The encoding unit 118 digitalizes the original image data captured by the photographing unit 111 or the processed image data processed through the first feature extraction unit 112, the second feature extraction unit 113, and the control unit 114. Encode it into a signal. For example, the encoding unit 118 may encode image data according to H.264, H.265, MPEG (Moving Picture Experts Group), and M-JPEG (Motion Joint Photographic Experts Group) standards.

데이터 베이스(119)는, 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 촬상 장치(100)는 인터넷(internet) 상에서 데이터 베이스(119)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 웹 스토리지와 관련되어 동작할 수도 있다.The database 119 is a flash memory type, hard disk type, multimedia card micro type, and card type memory (for example, SD or XD memory, etc.) ), magnetic memory, magnetic disk, optical disk, RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read-Only Memory: ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM ( It may include at least one storage medium among Programmable Read-Only Memory. Additionally, the imaging device 100 may operate web storage that performs a storage function of the database 119 on the Internet, or may operate in relation to web storage.

데이터 베이스(119)는 촬영부(111)에서 촬영한 영상 데이터를 저장할 수 있으며, 과거 일정 기간 동안의 영상 데이터를 저장할 수 있다.The database 119 can store image data captured by the photographing unit 111 and can store image data for a certain period of time in the past.

또한, 데이터 베이스(119)는, 촬상 장치(100)가 동작하는데 필요한 데이터와 프로그램 등을 저장할 수 있다.Additionally, the database 119 may store data and programs necessary for the imaging device 100 to operate.

또한, 데이터 베이스(119)는, 다양한 사용자 인터페이스(User Interface: UI) 또는 그래픽 사용자 인터페이스(Graphic User Interface: GUI)를 저장할 수 있다.Additionally, the database 119 may store various user interfaces (UI) or graphic user interfaces (GUI).

조도 센서(120)는 주변의 조도를 감지할 수 있다. 조도 센서는 광도전셀, 포토다이오드, 포토트랜지스터, 포토사이러스터, 광전자 증배관 및 광전관 중 적어도 하나를 포함할 수 있다.The illuminance sensor 120 can detect the surrounding illuminance. The illuminance sensor may include at least one of a photoconductive cell, a photodiode, a phototransistor, a photothyristor, a photomultiplier tube, and a photoelectric tube.

광도전셀은 광도전 효과를 이용하여 주변의 조도를 감지한다. 광도전 효과란, 반도체에 빛을 조사하면 반도체 중 캐리어 밀도가 증가하여 도전율이 증가하는 현상으로 외부로부터의 빛의 에너지에 의하여 가전자대의 자유전자가 전도대에 여기되어 그 결과 도전성을 나타내게 되는 현상이다.Photoconductive cells use the photoconductive effect to detect surrounding illumination. The photoconduction effect is a phenomenon in which when light is irradiated to a semiconductor, the carrier density in the semiconductor increases and the conductivity increases. It is a phenomenon in which free electrons in the valence band are excited to the conduction band by the energy of light from the outside, resulting in conductivity. .

포토다이오드, 포토트랜지스터, 포토사이러스터는 광기전력 효과를 이용하여 주변의 조도를 감지한다, 광기전력 효과란, PN접합에서 N형과 P형 반도체의 경계층에 빛을 조사하면 전자와 정공이 발생(전자정공쌍 생성이라고 한다)하여 전계와 열확산에 의해 PN접합의 전위장벽을 뛰어넘어 이동하여 기전력을 발생하는 현상이며 광전효과의 일종으로서 반도체의 PN접합이나 반도체와 금속의 접합면에 빛이 입사했을 때 기전력이 발생하는 현상이다.Photodiodes, phototransistors, and photothyristors use the photovoltaic effect to sense ambient illumination. The photovoltaic effect means that when light is irradiated to the boundary layer of the N-type and P-type semiconductors in a PN junction, electrons and holes are generated (electrons). It is a phenomenon in which an electromotive force is generated by moving beyond the potential barrier of the PN junction due to an electric field and thermal diffusion. It is a type of photoelectric effect when light is incident on the PN junction of a semiconductor or the junction surface of a semiconductor and a metal. This is a phenomenon in which electromotive force is generated.

광전자 증배관, 광전관은 광전자 방출효과를 이용하여 주변의 조도를 감지한다. 광전자 방출효과란, 금속이나 금속산화물 등에 빛이 닿았을 때 일의 함수보다도 큰 에너지를 얻게 되며 원자상의 전자가 금속표면에서 방출되는 효과를 가르키며 그 효과를 이용하는 수광면을 광전면이라 한다.Photomultiplier tubes and photoelectron tubes detect ambient illuminance using the photoelectron emission effect. The photoelectron emission effect refers to the effect in which energy greater than the work function is obtained when light hits a metal or metal oxide, and atomic electrons are emitted from the metal surface. The light-receiving surface that uses this effect is called the photofront.

광원부(121)는 제어부(114)의 제어에 따라 지향하는 방향으로 광을 조사할 수 있다. 예를 들면, 광원부(121)는 적어도 하나의 레이저 다이오드(LD), 발광 다이오드(LED)를 포함할 수 있다. 광원부(121)는 제어부(114)의 제어에 따라 다양한 파장대의 광을 조사할 수 있다.The light source unit 121 may radiate light in a direction under the control of the control unit 114. For example, the light source unit 121 may include at least one laser diode (LD) or light emitting diode (LED). The light source unit 121 can irradiate light of various wavelengths under the control of the control unit 114.

예를 들면, 광원부(121)는 야간 촬영을 위하여 적외선 파장대의 광을 조사할 수 있다. 또는, 광원부(121)는 사육장 내 가축의 광화학 치료(photochemotherapy)를 위하여 자외선 파장대의 광을 조사할 수도 있다.For example, the light source unit 121 may irradiate light in the infrared wavelength range for night photography. Alternatively, the light source unit 121 may irradiate light in the ultraviolet wavelength range for photochemotherapy of livestock in the farm.

도3은 기존 방식에 따른 이상 개체 검출 방식을 설명하기 위한 도면이고, 도4는 본 발명의 실시예에 따른 이상 개체 검출 장치의 동작을 설명하기 위한 도면이다.Figure 3 is a diagram for explaining an abnormal object detection method according to an existing method, and Figure 4 is a diagram for explaining the operation of an abnormal object detection device according to an embodiment of the present invention.

도3을 참조하면, 기존 이상 개체 검출 방식은 1차적으로 개체를 검출한 후, 검출된 개체를 지속적으로 트래킹하면서 움직이 발생 여부를 관찰한다. 검출된 개체는 지속적으로 트래킹되어 일정 시간 동안 움직임이 검출되지 않을 경우에는 질병이 있는 것으로 판단하여 알람을 출력한다. 이러한 기존 방식에 의하면 검출된 개체에 대한 일대일 추적이 지속적으로 수행되어야 한다. 때문에, 적게는 수백마리, 많게는 수십만마리의 가금류를 사육하고 있는 사육장에서 촬영된 영상 데이터상에서 개별 개체를 검출하는 것은 실질적으로는 불가능하며, 검출된 개체를 지속적으로 트래킹하는 것은 연산 트래픽에 과도한 부담을 줄 수 있다. 또한, 주변 상황을 고려하지 않고 단순히 움직임이 없는 개체를 이상 개체로 판단하기 때문에 판단에 대한 정확도 및 신뢰도가 현저하게 떨어지게 된다.Referring to Figure 3, the existing abnormal object detection method first detects an object and then continuously tracks the detected object to observe whether it moves. The detected object is continuously tracked, and if no movement is detected for a certain period of time, it is determined to be diseased and an alarm is output. According to these existing methods, one-to-one tracking of detected objects must be continuously performed. Therefore, it is practically impossible to detect individual objects in video data captured in a farm where at least hundreds or as many as hundreds of thousands of poultry are raised, and continuous tracking of detected objects places an excessive burden on computational traffic. I can give it. In addition, because an object without movement is simply judged to be an abnormal object without considering the surrounding situation, the accuracy and reliability of the judgment are significantly reduced.

도4를 참조하면, 본 발명의 실시예에 따른 이상 개체 검출 장치는 영상 데이터의 블록별로 개체의 존재 확률을 판단하고, 개체의 존재 확률과는 독립적으로 블록별 움직임을 검출한다. 즉, 본 발명의 실시예에 따른 이상 개체 검출 장치는 블록별로 개체가 존재하는지 여부를 확률적으로 판단하고, 개체의 존재 여부와는 상관없이 블록별로 움직임이 있는지 여부를 검출한다. 이후에 개체가 존재할 확률이 있으면서 움직임이 검출된 블록은 정상 개체로 판단하고, 개체가 존재할 확률이 있으면서 움직임이 검출되지 않는 블록은 이상 개체로 판단한다. 본 발명의 실시예에 따르면, 개체 자체를 검출하는 방식이 아닌 블록별로 개체가 존재할 확률을 판단하기 때문에 개체가 모여있거나 겹쳐있는 경우라 하더라도 개체 검출에 오류가 발생하지 않는다. 또한, 개체 자체를 트래킹하지 않기 때문에 연산량이 현저하게 줄어들게 된다.Referring to Figure 4, the abnormal object detection apparatus according to an embodiment of the present invention determines the probability of existence of an object for each block of image data and detects movement for each block independently of the probability of existence of the object. That is, the abnormal object detection device according to an embodiment of the present invention probabilistically determines whether an object exists for each block and detects whether there is movement for each block regardless of whether an object exists. Afterwards, a block in which there is a probability that an object exists and movement is detected is judged as a normal object, and a block in which there is a probability that an object exists in which movement is not detected is judged as an abnormal object. According to an embodiment of the present invention, since the probability that an object exists is determined for each block rather than detecting the object itself, errors do not occur in object detection even if the objects are clustered or overlapped. Additionally, because the object itself is not tracked, the amount of computation is significantly reduced.

도4(a)를 참조하면 본 발명의 실시예에 따른 이상 개체 검출 장치는 1차적으로 제1기간 동안에 생성된 영상 데이터의 블록별 개체의 존재 확률 및 움직임 검출 여부에 따라 이상 개체 후보를 판별한다. 이후 도4(b)에 따라, 제2기간 동안 급이기 및 급수기 중 적어도 하나가 동작하여 개체의 움직임을 유도하고, 제2기간 동안 생성된 영상 데이터의 블록별 개체의 존재 확률 및 움직임 검출 여부에 따라 이상 개체 후보가 이상 개체인지를 판단할 수 있다. 본 발명의 실시예에 따른 이상 개체 검출 장치는 1차적으로 이상 개체 후보를 검출하고, 급이기 및 급수기를 동작시켜 이상 개체 후보의 움직임을 유도하여 이상 개체를 최종적으로 판단하기 때문에 이상 개체 검출의 정확도 및 신뢰도를 현저하게 향상시킬 수 있다.Referring to Figure 4(a), the abnormal object detection device according to an embodiment of the present invention primarily determines abnormal object candidates based on the probability of existence of the object and whether or not motion is detected for each block of image data generated during the first period. . Thereafter, according to FIG. 4(b), during the second period, at least one of the feeder and the waterer operates to induce movement of the object, and the probability of existence of the object and whether or not movement is detected for each block of the image data generated during the second period are determined. Accordingly, it can be determined whether the abnormal entity candidate is an abnormal entity. The abnormal object detection device according to an embodiment of the present invention primarily detects abnormal object candidates, operates the feeder and waterer to induce the movement of the abnormal object candidates, and finally determines the abnormal object, thereby improving the accuracy of abnormal object detection. and reliability can be significantly improved.

도5는 본 발명의 실시예에 따른 이상 개체 검출 방법의 순서도이다.Figure 5 is a flowchart of a method for detecting abnormal objects according to an embodiment of the present invention.

도5를 참고하면, 먼저 촬영부는 제1기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S501).Referring to Figure 5, first, the photographing unit captures images including a plurality of objects during the first period (S501).

다음으로, 촬영부는 복수 개체를 포함하는 이미지를 이용하여 제1영상 데이터를 생성한다. 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 촬영부는 제1기간 동안 순차적으로 촬영되는 이미지를 이용하여 복수개의 제1영상 데이터를 생성한다 (S502).Next, the photographing unit generates first image data using an image including a plurality of objects. One image data may mean a single frame. The photographing unit generates a plurality of first image data using images sequentially captured during the first period (S502).

실시예에 따른 영상 데이터는 N X M의 픽셀로 구성되는 영상 데이터일 수 있다.Image data according to an embodiment may be image data composed of N x M pixels.

다음으로, 제1특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성한다(S503).Next, the first feature extraction unit generates first position distribution data indicating the position distribution of a plurality of objects using the first image data (S503).

다음으로, 제2특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성한다(S504).Next, the second feature extraction unit uses the first image data to generate first motion data indicating the movement of the motion object among the plurality of objects (S504).

다음으로, 제어부는 제1 위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성한다(S505).Next, the control unit compares the first position distribution data and the first motion data to generate abnormal entity candidate data representing the abnormal entity candidate (S505).

다음으로, 제어부는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제1영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S506).Next, the control unit controls pixel display for a plurality of blocks on the first image data according to the accumulated number of motion detections and non-detection motions of the abnormal object data (S506).

다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S507).Next, the photographing unit captures images including multiple objects during the second period (S507).

다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 이용하여 제2영상 데이터를 생성한다(S508).Next, the imaging unit generates second image data using images including a plurality of objects during the second period (S508).

다음으로, 제1특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성한다(S509).Next, the first feature extraction unit generates second position distribution data indicating the position distribution of a plurality of objects using the second image data (S509).

다음으로, 제2특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제2동작 데이터를 생성한다(S510).Next, the second feature extraction unit uses the second image data to generate second motion data indicating the movement of the motion object among the plurality of objects (S510).

다음으로, 제어부는 제2 위치 분포 데이터 및 제2동작 데이터를 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성한다. 이 때, 제어부는 기 저장된 급이 및 급수 타임 테이블 또는 외부로부터 수신한 급이 및 급수 타임 테이블을 이용하여 제1기간과 제2기간을 구분한다(S511).Next, the control unit compares the second position distribution data and the second motion data with the abnormal entity candidate data to generate abnormal entity data representing the abnormal entity. At this time, the control unit divides the first period and the second period using a pre-stored feeding and watering time table or a feeding and watering time table received from the outside (S511).

다음으로, 제어부는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제2영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S512).Next, the control unit controls pixel display for a plurality of blocks on the second image data according to the accumulated number of motion detections and non-detection motions of the abnormal object data (S512).

다음으로, 제어부는 이상 개체 데이터에 대한 알람을 외부로 출력한다(S513).Next, the control unit outputs an alarm regarding abnormal entity data to the outside (S513).

실시예에 따른 위치 분포 데이터 생성 및 동작 데이터를 생성하는 단계는 동시에 수행되거나, 어느 하나의 데이터 생성 과정이 먼저 이루어 질 수 있다. The steps of generating location distribution data and generating motion data according to the embodiment may be performed simultaneously, or either data generation process may be performed first.

실시예에 따른 위치 분포 데이터 생성 및 동작 데이터는 각각 별개의 동작을 병렬적으로 수행하여, 위치 분포 데이터와 동작 데이터를 생성하는 것으로서, 위치 분포 데이터를 이용하여 동작 데이터를 생성하거나 또는 동작 데이터를 이용하여 위치 분포 데이터를 생성하는 것은 아니다. Position distribution data generation and motion data according to the embodiment each generate position distribution data and motion data by performing separate operations in parallel, and motion data is generated using position distribution data or motion data is used. Therefore, it does not generate location distribution data.

상기S501 내지 S513 단계는 단일 이상 개체 후보 데이터 및 단일 이상 개체 데이터를 생성하는 것으로 간략하게 도시되었으나, 이상 개체 후보 데이터 및 이상 개체 데이터는 이미지 촬영을 통한 영상 데이터 생성이 연속적으로 이루어짐에 따라 지속적으로 생성 및 업데이트 되어 픽셀 표시를 제어하도록 동작한다.Steps S501 to S513 are briefly shown as generating single abnormal entity candidate data and single abnormal entity data, but abnormal entity candidate data and abnormal entity data are continuously generated as image data is continuously generated through image capture. and updated to operate to control pixel display.

도6은 본 발명의 실시예에 따른 이상 개체 검출 방법의 순서도이다.Figure 6 is a flowchart of a method for detecting abnormal objects according to an embodiment of the present invention.

도6을 참고하면, 먼저 촬영부는 제1기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S601).Referring to Figure 6, first, the photographing unit captures images including a plurality of objects during the first period (S601).

다음으로, 촬영부는 복수 개체를 포함하는 이미지를 이용하여 제1영상 데이터를 생성한다. 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 촬영부는 제1기간 동안 순차적으로 촬영되는 이미지를 이용하여 복수개의 제1영상 데이터를 생성한다(S602).Next, the photographing unit generates first image data using an image including a plurality of objects. One image data may mean a single frame. The photographing unit generates a plurality of first image data using images sequentially photographed during the first period (S602).

실시예에 따른 영상 데이터는 N X M의 픽셀로 구성되는 영상 데이터일 수 있다.Image data according to an embodiment may be image data composed of N x M pixels.

다음으로, 제1특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성한다(S603).Next, the first feature extraction unit generates first position distribution data representing the position distribution of a plurality of objects using the first image data (S603).

다음으로, 제2특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성한다(S604).Next, the second feature extraction unit uses the first image data to generate first motion data indicating the movement of the motion object among the plurality of objects (S604).

다음으로, 제어부는 제1 위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성한다(S605).Next, the control unit compares the first position distribution data and the first motion data to generate abnormal entity candidate data representing the abnormal entity candidate (S605).

다음으로, 제어부는 이상 개체 후보 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제1영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S606).Next, the control unit controls pixel display for a plurality of blocks on the first image data according to the accumulated number of motion detections and accumulated number of non-motion detections of the abnormal object candidate data (S606).

다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S607).Next, the photographing unit captures images including multiple objects during the second period (S607).

다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영하여 제2영상 데이터를 생성한다(S608).Next, the photographing unit captures images including a plurality of objects during the second period and generates second image data (S608).

다음으로, 제1특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성한다(S609).Next, the first feature extraction unit generates second position distribution data indicating the position distribution of a plurality of objects using the second image data (S609).

다음으로, 제2특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제2동작 데이터를 생성한다(S610).Next, the second feature extraction unit uses the second image data to generate second motion data indicating the movement of the motion object among the plurality of objects (S610).

다음으로, 제어부는 제1 동작 데이터와 제2 동작 데이터를 이용하여 제1기간과 제2기간을 구분한다(S611).Next, the control unit divides the first period and the second period using the first operation data and the second operation data (S611).

다음으로, 제어부는 제2 위치 분포 데이터 및 제2동작 데이터를 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성한다(S612).Next, the control unit compares the second position distribution data and the second motion data with the abnormal entity candidate data to generate abnormal entity data representing the abnormal entity (S612).

다음으로, 제어부는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제2영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S613).Next, the control unit controls pixel display for a plurality of blocks on the second image data according to the accumulated number of motion detections and non-detection motions of the abnormal object data (S613).

다음으로, 제어부는 이상 개체 데이터에 대한 알람을 외부로 출력한다(S614).Next, the control unit outputs an alarm regarding abnormal entity data to the outside (S614).

실시예에 따른 위치 분포 데이터 생성 및 동작 데이터를 생성하는 단계는 동시에 수행되거나, 어느 하나의 데이터 생성 과정이 먼저 이루어 질 수 있다. The steps of generating location distribution data and generating motion data according to the embodiment may be performed simultaneously, or either data generation process may be performed first.

실시예에 따른 위치 분포 데이터 생성 및 동작 데이터는 각각 별개의 동작을 병렬적으로 수행하여, 위치 분포 데이터와 동작 데이터를 생성하는 것으로서, 위치 분포 데이터를 이용하여 동작 데이터를 생성하거나 또는 동작 데이터를 이용하여 위치 분포 데이터를 생성하는 것은 아니다. Position distribution data generation and motion data according to the embodiment each generate position distribution data and motion data by performing separate operations in parallel, and motion data is generated using position distribution data or motion data is used. Therefore, it does not generate location distribution data.

상기 S601 내지 S614 단계는 단일 이상 개체 후보 데이터 및 단일 이상 개체 데이터를 생성하는 것으로 간략하게 도시되었으나, 이상 개체 후보 데이터 및 이상 개체 데이터는 이미지 촬영을 통한 영상 데이터 생성이 연속적으로 이루어짐에 따라 지속적으로 생성 및 업데이트 되어 픽셀 표시를 제어하도록 동작한다.Steps S601 to S614 are briefly shown as generating single abnormal entity candidate data and single abnormal entity data, but abnormal entity candidate data and abnormal entity data are continuously generated as image data is continuously generated through image capture. and updated to operate to control pixel display.

도7은 본 발명의 실시예에 따른 이상 개체 검출 방법의 순서도이다.Figure 7 is a flowchart of a method for detecting abnormal objects according to an embodiment of the present invention.

도7을 참고하면, 먼저 촬영부는 제1기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S701).Referring to Figure 7, first, the photographing unit captures images including a plurality of objects during the first period (S701).

다음으로, 촬영부는 복수 개체를 포함하는 이미지를 이용하여 제1영상 데이터를 생성한다. 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 촬영부는 제1기간 동안 순차적으로 촬영되는 이미지를 이용하여 복수개의 제1영상 데이터를 생성한다(S702).Next, the photographing unit generates first image data using an image including a plurality of objects. One image data may mean a single frame. The photographing unit generates a plurality of first image data using images sequentially photographed during the first period (S702).

실시예에 따른 영상 데이터는 N X M의 픽셀로 구성되는 영상 데이터일 수 있다.Image data according to an embodiment may be image data composed of N x M pixels.

다음으로, 제1특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성한다(S703).Next, the first feature extraction unit generates first position distribution data indicating the position distribution of a plurality of objects using the first image data (S703).

다음으로, 제2특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성한다(S704).Next, the second feature extraction unit uses the first image data to generate first motion data indicating the movement of a motion object among the plurality of objects (S704).

다음으로, 제어부는 제1 위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성한다(S705).Next, the control unit compares the first position distribution data and the first motion data to generate abnormal entity candidate data representing the abnormal entity candidate (S705).

다음으로, 제어부는 이상 개체 후보 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제1영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S706).Next, the control unit controls the pixel display of a plurality of blocks on the first image data according to the accumulated number of motion detections and the accumulated number of non-motion detections of the abnormal object candidate data (S706).

다음으로, 제어부는 이상 개체 후보가 검출된 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력한다(S707).Next, the control unit outputs a driving command to at least one of the feeder and waterer assigned to the area where the abnormal object candidate was detected (S707).

다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S708).Next, the photographing unit captures images including multiple objects during the second period (S708).

다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영하여 제2영상 데이터를 생성한다(S709).Next, the photographing unit captures images including a plurality of objects during the second period and generates second image data (S709).

다음으로, 제1특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성한다(S710).Next, the first feature extraction unit generates second position distribution data indicating the position distribution of a plurality of objects using the second image data (S710).

다음으로, 제2특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제2동작 데이터를 생성한다(S711).Next, the second feature extraction unit uses the second image data to generate second motion data indicating the movement of the motion object among the plurality of objects (S711).

다음으로, 제어부는 제2 위치 분포 데이터 및 제2동작 데이터를 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성한다(S712).Next, the control unit compares the second position distribution data and the second motion data with the abnormal entity candidate data to generate abnormal entity data representing the abnormal entity (S712).

다음으로, 제어부는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제2영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S713).Next, the control unit controls pixel display for a plurality of blocks on the second image data according to the accumulated number of motion detections and non-detection motions of the abnormal object data (S713).

다음으로, 제어부는 이상 개체 데이터에 대한 알람을 외부로 출력한다(S714).Next, the control unit outputs an alarm regarding abnormal entity data to the outside (S714).

실시예에 따른 위치 분포 데이터 생성 및 동작 데이터를 생성하는 단계는 동시에 수행되거나, 어느 하나의 데이터 생성 과정이 먼저 이루어 질 수 있다. The steps of generating location distribution data and generating motion data according to the embodiment may be performed simultaneously, or either data generation process may be performed first.

실시예에 따른 위치 분포 데이터 생성 및 동작 데이터는 각각 별개의 동작을 병렬적으로 수행하여, 위치 분포 데이터와 동작 데이터를 생성하는 것으로서, 위치 분포 데이터를 이용하여 동작 데이터를 생성하거나 또는 동작 데이터를 이용하여 위치 분포 데이터를 생성하는 것은 아니다. Position distribution data generation and motion data according to the embodiment each generate position distribution data and motion data by performing separate operations in parallel, and motion data is generated using position distribution data or motion data is used. Therefore, it does not generate location distribution data.

상기 S701 내지 S714 단계는 단일 이상 개체 후보 데이터 및 단일 이상 개체 데이터를 생성하는 것으로 간략하게 도시되었으나, 이상 개체 후보 데이터 및 이상 개체 데이터는 이미지 촬영을 통한 영상 데이터 생성이 연속적으로 이루어짐에 따라 지속적으로 생성 및 업데이트 되어 픽셀 표시를 제어하도록 동작한다.Steps S701 to S714 are briefly shown as generating single abnormal entity candidate data and single abnormal entity data, but abnormal entity candidate data and abnormal entity data are continuously generated as image data is continuously generated through image capture. and updated to operate to control pixel display.

도8은 본 발명의 실시예에 따른 이상 개체 검출 방법의 순서도이다.Figure 8 is a flowchart of a method for detecting abnormal objects according to an embodiment of the present invention.

도8을 참고하면, 먼저 촬영부는 제1기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S801).Referring to Figure 8, first, the photographing unit captures an image including a plurality of objects during the first period (S801).

다음으로, 촬영부는 복수 개체를 포함하는 이미지를 이용하여 제1영상 데이터를 생성한다. 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 촬영부는 제1기간 동안 순차적으로 촬영되는 이미지를 이용하여 복수개의 제1영상 데이터를 생성한다(S802).Next, the photographing unit generates first image data using an image including a plurality of objects. One image data may mean a single frame. The photographing unit generates a plurality of first image data using images sequentially photographed during the first period (S802).

실시예에 따른 영상 데이터는 N X M의 픽셀로 구성되는 영상 데이터일 수 있다.Image data according to an embodiment may be image data composed of N x M pixels.

다음으로, 제1특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성한다(S803).Next, the first feature extraction unit generates first position distribution data indicating the position distribution of a plurality of objects using the first image data (S803).

다음으로, 제2특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성한다(S804).Next, the second feature extraction unit uses the first image data to generate first motion data indicating the movement of the motion object among the plurality of objects (S804).

다음으로, 제어부는 제1 위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성한다(S805).Next, the control unit compares the first position distribution data and the first motion data to generate abnormal entity candidate data representing the abnormal entity candidate (S805).

다음으로, 제어부는 이상 개체 후보 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제1영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S806).Next, the control unit controls pixel display for a plurality of blocks on the first image data according to the accumulated number of motion detections and accumulated number of non-motion detections of the abnormal object candidate data (S806).

다음으로, 제어부는 이상 개체 후보 데이터를 이용하여 이상 개체 후보가 검출된 영역을 제외한 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력한다. 제어부는 이상 개체 후보가 검출되지 않은 영역의 주변에 위치한 급이기와 급수기만을 선별적으로 동작시킴으로써, 이상 개체 후보가 상대적으로 멀리 위치한 급이기, 급수기로 이동하는지 여부를 관찰할 수 있다(S807).Next, the control unit uses the abnormal entity candidate data to output a driving command to at least one of the feeder and waterer assigned to the area excluding the area where the abnormal entity candidate was detected. The control unit can observe whether the abnormal object candidate moves to a feeder or waterer located relatively far away by selectively operating only the feeders and waterers located around the area where the abnormal object candidate is not detected (S807).

다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S808).Next, the photographing unit captures images including multiple objects during the second period (S808).

다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영하여 제2영상 데이터를 생성한다(S809).Next, the photographing unit captures images including a plurality of objects during the second period and generates second image data (S809).

다음으로, 제1특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성한다(S810).Next, the first feature extraction unit generates second position distribution data indicating the position distribution of a plurality of objects using the second image data (S810).

다음으로, 제2특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제2동작 데이터를 생성한다(S811).Next, the second feature extraction unit uses the second image data to generate second motion data indicating the movement of the motion object among the plurality of objects (S811).

다음으로, 제어부는 제2 위치 분포 데이터 및 제2동작 데이터를 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성한다(S812).Next, the control unit compares the second position distribution data and the second motion data with the abnormal entity candidate data to generate abnormal entity data representing the abnormal entity (S812).

다음으로, 제어부는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제2영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S813).Next, the control unit controls pixel display for a plurality of blocks on the second image data according to the accumulated number of motion detections and non-detection motions of the abnormal object data (S813).

다음으로, 제어부는 이상 개체 데이터에 대한 알람을 외부로 출력한다(S814).Next, the control unit outputs an alarm regarding abnormal entity data to the outside (S814).

실시예에 따른 위치 분포 데이터 생성 및 동작 데이터를 생성하는 단계는 동시에 수행되거나, 어느 하나의 데이터 생성 과정이 먼저 이루어 질 수 있다. The steps of generating location distribution data and generating motion data according to the embodiment may be performed simultaneously, or either data generation process may be performed first.

실시예에 따른 위치 분포 데이터 생성 및 동작 데이터는 각각 별개의 동작을 병렬적으로 수행하여, 위치 분포 데이터와 동작 데이터를 생성하는 것으로서, 위치 분포 데이터를 이용하여 동작 데이터를 생성하거나 또는 동작 데이터를 이용하여 위치 분포 데이터를 생성하는 것은 아니다. Position distribution data generation and motion data according to the embodiment each generate position distribution data and motion data by performing separate operations in parallel, and motion data is generated using position distribution data or motion data is used. Therefore, it does not generate location distribution data.

상기 S801 내지 S814 단계는 단일 이상 개체 후보 데이터 및 단일 이상 개체 데이터를 생성하는 것으로 간략하게 도시되었으나, 이상 개체 후보 데이터 및 이상 개체 데이터는 이미지 촬영을 통한 영상 데이터 생성이 연속적으로 이루어짐에 따라 지속적으로 생성 및 업데이트 되어 픽셀 표시를 제어하도록 동작한다.Steps S801 to S814 are briefly shown as generating single abnormal entity candidate data and single abnormal entity data, but abnormal entity candidate data and abnormal entity data are continuously generated as image data is continuously generated through image capture. and updated to operate to control pixel display.

도9는 본 발명의 실시예에 따른 이상 개체 검출 방법의 순서도이다.Figure 9 is a flowchart of a method for detecting abnormal objects according to an embodiment of the present invention.

도9를 참고하면, 먼저 촬영부는 제1기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S901).Referring to Figure 9, first, the photographing unit captures an image including a plurality of objects during the first period (S901).

다음으로, 촬영부는 복수 개체를 포함하는 이미지를 이용하여 제1영상 데이터를 생성한다. 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 촬영부는 제1기간 동안 순차적으로 촬영되는 이미지를 이용하여 복수개의 제1영상 데이터를 생성한다(S902).Next, the photographing unit generates first image data using an image including a plurality of objects. One image data may mean a single frame. The photographing unit generates a plurality of first image data using images sequentially photographed during the first period (S902).

실시예에 따른 영상 데이터는 N X M의 픽셀로 구성되는 영상 데이터일 수 있다.Image data according to an embodiment may be image data composed of N x M pixels.

다음으로, 제1특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성한다(S903).Next, the first feature extraction unit generates first position distribution data indicating the position distribution of a plurality of objects using the first image data (S903).

다음으로, 제2특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성한다(S904).Next, the second feature extraction unit uses the first image data to generate first motion data indicating the movement of a motion object among the plurality of objects (S904).

다음으로, 제어부는 제1 위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성한다(S905).Next, the control unit compares the first position distribution data and the first motion data to generate abnormal entity candidate data representing the abnormal entity candidate (S905).

다음으로, 제어부는 이상 개체 후보 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제1영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S906).Next, the control unit controls pixel display for a plurality of blocks on the first image data according to the accumulated number of motion detections and accumulated number of non-motion detections of the abnormal object candidate data (S906).

다음으로, 제어부는 급이기 및 급수기 중 적어도 하나의 높이를 조절하는 구동 명령을 출력한다. 제어부는 이상 개체 후보가 검출된 영역에 할당된 급이기 및 급수기 중 적어도 하나의 높이를 조절하여 모이와 물의 섭취를 어렵게 하여 개체의 활동성을 증가시킬 수 있다(S907).Next, the control unit outputs a drive command to adjust the height of at least one of the feeder and the waterer. The control unit may increase the activity of the entity by adjusting the height of at least one of the feeders and waterers assigned to the area where the abnormal entity candidate was detected to make it difficult to consume feed and water (S907).

다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S908).Next, the photographing unit captures images including a plurality of objects during the second period (S908).

다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영하여 제2영상 데이터를 생성한다(S909).Next, the photographing unit captures images including a plurality of objects during the second period and generates second image data (S909).

다음으로, 제1특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성한다(S910).Next, the first feature extraction unit generates second position distribution data indicating the position distribution of a plurality of objects using the second image data (S910).

다음으로, 제2특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제2동작 데이터를 생성한다(S911).Next, the second feature extraction unit uses the second image data to generate second motion data indicating the movement of the motion object among the plurality of objects (S911).

다음으로, 제어부는 제2 위치 분포 데이터 및 제2동작 데이터를 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성한다(S912).Next, the control unit compares the second position distribution data and the second motion data with the abnormal entity candidate data to generate abnormal entity data representing the abnormal entity (S912).

다음으로, 제어부는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제2영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S913).Next, the control unit controls pixel display for a plurality of blocks on the second image data according to the accumulated number of motion detections and non-detection motions of the abnormal object data (S913).

다음으로, 제어부는 이상 개체 데이터에 대한 알람을 외부로 출력한다(S914).Next, the control unit outputs an alarm regarding abnormal entity data to the outside (S914).

실시예에 따른 위치 분포 데이터 생성 및 동작 데이터를 생성하는 단계는 동시에 수행되거나, 어느 하나의 데이터 생성 과정이 먼저 이루어 질 수 있다. The steps of generating location distribution data and generating motion data according to the embodiment may be performed simultaneously, or either data generation process may be performed first.

실시예에 따른 위치 분포 데이터 생성 및 동작 데이터는 각각 별개의 동작을 병렬적으로 수행하여, 위치 분포 데이터와 동작 데이터를 생성하는 것으로서, 위치 분포 데이터를 이용하여 동작 데이터를 생성하거나 또는 동작 데이터를 이용하여 위치 분포 데이터를 생성하는 것은 아니다. Position distribution data generation and motion data according to the embodiment each generate position distribution data and motion data by performing separate operations in parallel, and motion data is generated using position distribution data or motion data is used. Therefore, it does not generate location distribution data.

상기 S901 내지 S914 단계는 단일 이상 개체 후보 데이터 및 단일 이상 개체 데이터를 생성하는 것으로 간략하게 도시되었으나, 이상 개체 후보 데이터 및 이상 개체 데이터는 이미지 촬영을 통한 영상 데이터 생성이 연속적으로 이루어짐에 따라 지속적으로 생성 및 업데이트 되어 픽셀 표시를 제어하도록 동작한다.Steps S901 to S914 are briefly shown as generating single abnormal entity candidate data and single abnormal entity data, but abnormal entity candidate data and abnormal entity data are continuously generated as image data is continuously generated through image capture. and updated to operate to control pixel display.

도10은 본 발명의 실시예에 따른 이상 개체 검출 방법의 순서도이다.Figure 10 is a flowchart of a method for detecting abnormal objects according to an embodiment of the present invention.

도10을 참고하면, 먼저 촬영부는 제1기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S1001).Referring to Figure 10, first, the photographing unit captures an image including a plurality of objects during the first period (S1001).

다음으로, 촬영부는 복수 개체를 포함하는 이미지를 이용하여 제1영상 데이터를 생성한다. 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 촬영부는 제1기간 동안 순차적으로 촬영되는 이미지를 이용하여 복수개의 제1영상 데이터를 생성한다(S1002).Next, the photographing unit generates first image data using an image including a plurality of objects. One image data may mean a single frame. The photographing unit generates a plurality of first image data using images sequentially photographed during the first period (S1002).

실시예에 따른 영상 데이터는 N X M의 픽셀로 구성되는 영상 데이터일 수 있다.Image data according to an embodiment may be image data composed of N x M pixels.

다음으로, 제1특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성한다(S1003).Next, the first feature extraction unit generates first position distribution data representing the position distribution of a plurality of objects using the first image data (S1003).

다음으로, 제2특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성한다(S1004).Next, the second feature extraction unit uses the first image data to generate first motion data indicating the movement of a motion object among the plurality of objects (S1004).

다음으로, 제어부는 제1 위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성한다(S1005).Next, the control unit compares the first position distribution data and the first motion data to generate abnormal entity candidate data representing the abnormal entity candidate (S1005).

다음으로, 제어부는 이상 개체 후보 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제1영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S1006).Next, the control unit controls pixel display for a plurality of blocks on the first image data according to the accumulated number of motion detections and the accumulated number of non-motion detections of the abnormal object candidate data (S1006).

다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S1007).Next, the photographing unit captures images including a plurality of objects during the second period (S1007).

다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영하여 제2영상 데이터를 생성한다(S1008).Next, the photographing unit captures images including a plurality of objects during the second period and generates second image data (S1008).

다음으로, 제1특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성한다(S1009).Next, the first feature extraction unit generates second position distribution data indicating the position distribution of a plurality of objects using the second image data (S1009).

다음으로, 제2특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제2동작 데이터를 생성한다(S1010).Next, the second feature extraction unit uses the second image data to generate second motion data indicating the movement of the motion object among the plurality of objects (S1010).

다음으로, 제어부는 급이 영역 및 급수 영역 중 적어도 하나의 영역의 너비 변화를 통하여 이상 개체 데이터를 생성한다. 제어부는 제2기간 동안 동작하는 급이기 및 급수기의 위치를 통하여 이상 개체 후보 근처의 급이 영역 및 급수 영역을 판단하고, 해당 급이 영역 및 급수 영역의 너비 변화를 다른 급이 영역 및 급수 영역의 너비 변화와 비교하여 이상 개체 데이터를 생성한다(S1011).Next, the control unit generates abnormal entity data through a change in the width of at least one of the feeding area and the water supply area. The control unit determines the feeding area and water supply area near the abnormal object candidate through the positions of the feeder and water supply operating during the second period, and changes the width of the corresponding feeding area and water supply area to other feeding areas and water supply areas. Abnormal entity data is generated by comparing the width change (S1011).

다음으로, 제어부는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제2영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S1012).Next, the control unit controls pixel display for a plurality of blocks on the second image data according to the accumulated number of motion detections and non-detection motions of the abnormal object data (S1012).

다음으로, 제어부는 이상 개체 데이터에 대한 알람을 외부로 출력한다(S1013).Next, the control unit outputs an alarm regarding abnormal entity data to the outside (S1013).

실시예에 따른 위치 분포 데이터 생성 및 동작 데이터를 생성하는 단계는 동시에 수행되거나, 어느 하나의 데이터 생성 과정이 먼저 이루어 질 수 있다. The steps of generating location distribution data and generating motion data according to the embodiment may be performed simultaneously, or either data generation process may be performed first.

실시예에 따른 위치 분포 데이터 생성 및 동작 데이터는 각각 별개의 동작을 병렬적으로 수행하여, 위치 분포 데이터와 동작 데이터를 생성하는 것으로서, 위치 분포 데이터를 이용하여 동작 데이터를 생성하거나 또는 동작 데이터를 이용하여 위치 분포 데이터를 생성하는 것은 아니다. Position distribution data generation and motion data according to the embodiment each generate position distribution data and motion data by performing separate operations in parallel, and motion data is generated using position distribution data or motion data is used. Therefore, it does not generate location distribution data.

상기 S1001 내지 S1013 단계는 단일 이상 개체 후보 데이터 및 단일 이상 개체 데이터를 생성하는 것으로 간략하게 도시되었으나, 이상 개체 후보 데이터 및 이상 개체 데이터는 이미지 촬영을 통한 영상 데이터 생성이 연속적으로 이루어짐에 따라 지속적으로 생성 및 업데이트 되어 픽셀 표시를 제어하도록 동작한다.Steps S1001 to S1013 are briefly shown as generating single abnormal entity candidate data and single abnormal entity data, but abnormal entity candidate data and abnormal entity data are continuously generated as image data is continuously generated through image capture. and updated to operate to control pixel display.

도11은 본 발명의 실시예에 따른 학습용 서버의 구성 개념도이다. 도11의 이상 개체 검출 장치는 도2에 도시된 이상 개체 검출 장치와 동일한 구성을 포함할 수 있다. 학습 전처리부(120)는 촬영부(111)에 의하여 획득된 영상 데이터 중 학습용 서버(400)가 학습에 사용할 학습용 데이터를 추출한다. 학습 전처리부(120)가 학습 데이터를 추출하는 자세한 방법은 이하에서 설명한다. Figure 11 is a conceptual diagram of the configuration of a learning server according to an embodiment of the present invention. The abnormal object detection device of FIG. 11 may include the same configuration as the abnormal object detection device shown in FIG. 2 . The learning preprocessor 120 extracts learning data to be used by the learning server 400 for learning from the image data acquired by the photographing unit 111. The detailed method by which the learning preprocessor 120 extracts learning data will be described below.

도11 내지 도12를 참조하면, 이상 개체 검출 장치(100)는 촬영부(111)를 이용하여 복수의 개체가 함께 촬영된 영상에 대한 영상 데이터를 획득하며(S1200), 제어부(112)는 획득한 영상 데이터로부터 이상 개체 정보를 추출한다(S1202). 여기서, 하나의 영상 데이터는 단일 프레임을 의미할 수 있으며, 촬영부(111)는 순차적으로 촬영되는 영상을 이용하여 복수 개의 영상 데이터를 생성할 수 있다. 이때, 제어부(112)는 미리 저장된 알고리즘 및 이에 적용되는 파라미터를 이용하여 이상 개체 정보를 추출할 수 있다. 여기서, 미리 저장된 알고리즘은 영상 데이터 내에서 객체가 위치한다고 판단되는 영역을 표시하도록 학습된 제1 알고리즘 및 옵티컬 플로우(optical flow)를 활용하여 모션을 검출하도록 학습된 제2 알고리즘을 이용하여 객체 중 움직임이 없는 객체를 표시하는 알고리즘을 의미할 수 있다. 여기서, 제1 알고리즘은 객체가 존재하는 영역을 표시하는 알고리즘을 활용한 실시간 객체 검출 방법을 이용할 수 있다, 또는, 제1 알고리즘은 객체의 분포 정보, 즉 객체가 위치하는 영역의 밀도 정보를 나타내는 방법을 이용할 수도 있다. 도 13은 객체 밀도 예측 네트워크를 설명하기 위한 도면이다. 여기서, 객체 밀도 예측 네트워크는 객체가 위치하는 영역의 밀도 정보를 표시하도록 설계된 딥러닝 알고리즘의 한 예이다. 객체 밀도 예측 네트워크는 컨볼루션 네트워크(convolution network) 기반 학습 머신에 원본 영상을 입력한 후, 그레이 스케일의 확률 맵으로 나타낸 밀도 영상을 출력하는 알고리즘일 수 있다. 이에 따르면, 닭장과 같이 유사한 모양을 가진 객체가 높은 밀도로 수용된 사육장 환경에서도 이상 객체 정보를 용이하게 추출할 수 있다. Referring to FIGS. 11 and 12, the abnormal object detection device 100 uses the photographing unit 111 to obtain image data for an image in which a plurality of objects are photographed together (S1200), and the control unit 112 acquires image data. Abnormal entity information is extracted from image data (S1202). Here, one image data may mean a single frame, and the photographing unit 111 may generate a plurality of image data using sequentially captured images. At this time, the control unit 112 may extract abnormal entity information using a pre-stored algorithm and parameters applied thereto. Here, the pre-stored algorithm detects movement among objects using a first algorithm learned to display the area where the object is judged to be located within the image data and a second algorithm learned to detect motion using optical flow. It can refer to an algorithm that displays objects that do not exist. Here, the first algorithm may use a real-time object detection method using an algorithm that displays the area where the object exists, or the first algorithm may use a method of indicating distribution information of the object, that is, density information of the area where the object is located. You can also use . Figure 13 is a diagram for explaining an object density prediction network. Here, the object density prediction network is an example of a deep learning algorithm designed to display density information of the area where an object is located. An object density prediction network may be an algorithm that inputs an original image into a convolution network-based learning machine and then outputs a density image represented as a gray-scale probability map. According to this, abnormal object information can be easily extracted even in a breeding environment where objects with similar shapes are accommodated at a high density, such as a chicken coop.

객체 밀도 예측 네트워크는 원본 영상과 밀도 영상을 이용하여 학습될 수 있으며, 후술하는 도 17의 학습용 서버(Training server)에 의해 학습될 수 있다.The object density prediction network can be learned using the original image and the density image, and can be learned by the training server of FIG. 17, which will be described later.

도 13에서 도시된 바와 같이, 객체 밀도 예측 네트워크는 적어도 하나의 컨볼루션 네트워크(convolution network(layer))를 포함할 수 있다. As shown in FIG. 13, the object density prediction network may include at least one convolution network (layer).

컨볼루션 네트워크는 적어도 하나의 피쳐 맵(feature map(W))을 이용하여 영상의 특징점을 분류할수 있다. A convolutional network can classify feature points of an image using at least one feature map (W).

컨볼루션 네트워크는 적어도 하나의 풀러(pooler) 및/또는 액티베이터(activator)를 통해 객체 밀도 예측 네트워크의 성능을 개선할 수 있다.A convolutional network can improve the performance of an object density prediction network through at least one pooler and/or activator.

객체 밀도 예측 네트워크는 concatenator를 더 포함하며, concatenator는 적어도 하나의 컨볼루션 네트워크의 출력 결과를 연결하고(concatenate), 재배열하여 원본 영상의 특징점을 이용하여 객체의 밀도(분포) 정보를 출력할 수 있다.The object density prediction network further includes a concatenator, which concatenates and rearranges the output results of at least one convolutional network to output object density (distribution) information using feature points of the original image. there is.

도 17을 이용하여 후술할 학습용 서버(Training server)에서 적어도 하나의 피쳐 맵(feature map(W))은 객체의 밀도 정보를 출력할 수 있도록 훈련(trained(tuned))될 수 있다.In a training server, which will be described later using FIG. 17, at least one feature map (W) may be trained (tuned) to output density information of an object.

본 발명의 실시예에서, 밀도 영상은 원본 영상과 같거나 유사한 크기(Width x Highet)를 가지도록 객체 밀도 예측 네트워크가 구성되며, 각각의 픽셀(또는 블록)의 위치는 서로 대응되고, 밀도 영상의 픽셀의 값은 원본 영상의 대응 픽셀에 객체(예를들어 가금류)가 존재할 수 있는 확률을 나타낼 수 있다. 예를 들어, 원본 영상의 픽셀에 객체가 존재할 확률이 높은수록, 밀도 영상의 해당 픽셀의 값은 높은 값을 가질 수 있다. 또는 개체의 존재 여부만 나타내어, 개체가 존재할 때와 존재하지 않을 때 픽셀 값을 다르게 설정한다.In an embodiment of the present invention, an object density prediction network is configured so that the density image has the same or similar size (Width x Highet) as the original image, the positions of each pixel (or block) correspond to each other, and the density image The pixel value may represent the probability that an object (for example, a poultry) may exist in the corresponding pixel of the original image. For example, the higher the probability that an object exists in a pixel of the original image, the higher the value of the corresponding pixel in the density image may be. Or, it only indicates whether the object exists, and sets the pixel value differently when the object exists and when it does not.

이상 개체 검출 장치(100)의 통신부(113)는 제어부(112)가 획득한 이상 개체 정보를 관리자 단말(200)에게 전송하며(S1204), 관리자 단말(200)은 이상 개체 정보를 출력한다(S1206). 이에 따라, 관리자는 관리자 단말(200)에 출력된 이상 개체 정보를 인지할 수 있다. 여기서, 이상 개체 정보는 이상 개체 데이터와 혼용될 수 있다.The communication unit 113 of the abnormal object detection device 100 transmits the abnormal object information acquired by the control unit 112 to the administrator terminal 200 (S1204), and the administrator terminal 200 outputs the abnormal entity information (S1206) ). Accordingly, the manager can recognize abnormal entity information output to the manager terminal 200. Here, abnormal entity information may be mixed with abnormal entity data.

도 14는 관리자 단말에 이상 개체 정보가 표시되는 예를 설명하기 도면이다. 관리자 단말(200)에는 도 14(c)와 같은 영상이 표시될 수 있다. 즉, 관리자 단말(200)에는 도 1(a)와 같이 촬영부(111)에 의하여 촬영된 원본 이미지와 도 14(b)와 같이 제어부(112)에 의하여 추출된 이상 개체 데이터를 정합한 영상이 표시될 수 있다. 여기서, 이상 개체 데이터는 닭 밀도 추정 이미지일 수 있으며, 유사밀도 8비트 그레이 이미지, 확률맵 또는 비트맵으로 표시될 수 있다. 이때, 이상 개체 데이터는 개체 별로 이상 확률을 표시한 데이터가 아니라, 영상 데이터 내 구분된 영역 별, 블록 별, 또는 픽셀 별로 해당되는 영역, 블록 또는 픽셀에서 개체, 몸통 또는 머리의 이상 확률을 나타내는 데이터이다.FIG. 14 is a diagram illustrating an example in which abnormal entity information is displayed on an administrator terminal. An image as shown in FIG. 14(c) may be displayed on the administrator terminal 200. That is, the administrator terminal 200 contains an image that matches the original image captured by the photographing unit 111 as shown in FIG. 1(a) and the abnormal entity data extracted by the control unit 112 as shown in FIG. 14(b). can be displayed. Here, the abnormal entity data may be a chicken density estimation image and may be displayed as a pseudo-density 8-bit gray image, probability map, or bitmap. At this time, the abnormal object data is not data indicating the probability of abnormality for each object, but data indicating the probability of abnormality for the object, body, or head in the corresponding area, block, or pixel for each divided area, block, or pixel in the image data. am.

만약, 관리자 단말(200)에 노출된 이상 개체 정보에 오류가 있는 경우, 관리자는 관리자 단말(200)을 통하여 이상 개체 검출 장치(100)에게 피드백 정보를 전송할 수 있다(S1208). 예를 들어, 이상 개체가 아님에도 불구하고 이상 개체 검출 장치(100)가 이상 개체인 것으로 판단하거나, 이상 개체임에도 불구하고 이상 개체 검출 장치(100)가 정상 개체인 것으로 판단한 경우, 관리자 단말(200)은 이상 개체 정보에 오류가 있음을 알리는 피드백 정보를 이상 개체 검출 장치(100)에게 전송할 수 있다. 여기서, 피드백 정보는 이상 개체 정보 중 오류가 있는 시간 영역 및 공간 영역 중 적어도 하나를 포함할 수 있다. 오류가 있는 시간 영역 및 공간 영역은 관리자에 의하여 선택되거나 지정될 수 있으며, 관리자 단말(200)의 유저 인터페이스부를 통하여 입력될 수 있다. 예를 들어, 도 15(c)에서 예시한 바와 같이, 관리자 단말(200)이 화면(800) 내 4개의 영역에 대한 이상 개체 정보(802, 804, 806, 808)를 표시하며, 관리자가 4개 중 1개의 이상 개체 정보(예를 들어, 806)는 오류인 것으로 판단한 경우, 관리자가 유저 인터페이스를 통하여 오류인 이상 개체 정보(806)를 선택하여 피드백할 수 있다. 또는, 관리자 단말(200)이 출력한 화면 내에 이상 개체가 있음에도 불구하고 이상 개체 정보가 표시되지 않은 경우, 관리자는 이상 개체인 것으로 보이는 시간 영역 및 공간 영역을 지정하여 피드백할 수도 있다. If there is an error in the abnormal entity information exposed to the administrator terminal 200, the administrator may transmit feedback information to the abnormal entity detection device 100 through the administrator terminal 200 (S1208). For example, if the abnormal object detection device 100 determines that the object is an abnormal object even though it is not an abnormal object, or if the abnormal object detection device 100 determines that it is a normal object even though it is an abnormal object, the administrator terminal 200 ) may transmit feedback information indicating that there is an error in the abnormal object information to the abnormal object detection device 100. Here, the feedback information may include at least one of an error-prone time domain and a spatial domain among the abnormal entity information. The time area and space area in which the error occurs may be selected or designated by the administrator and may be input through the user interface unit of the administrator terminal 200. For example, as illustrated in FIG. 15(c), the administrator terminal 200 displays abnormal entity information (802, 804, 806, 808) for four areas within the screen 800, and the administrator displays 4 areas. If it is determined that one of the abnormal entity information (for example, 806) is an error, the administrator can select the erroneous abnormal entity information (806) and provide feedback through the user interface. Alternatively, if the abnormal object information is not displayed even though there is an abnormal object in the screen output by the administrator terminal 200, the administrator may designate a time region and a spatial region that appear to be the abnormal object and provide feedback.

이상 개체 검출 장치(100)의 학습 전처리부(120)는 관리자 단말(200)로부터 수신한 피드백 정보를 이용하여 학습용 데이터를 추출하며(S1210), 추출한 학습용 데이터를 학습용 서버(400)에게 전송한다(S1212). The learning preprocessor 120 of the abnormal object detection device 100 extracts learning data using the feedback information received from the administrator terminal 200 (S1210), and transmits the extracted learning data to the learning server 400 (S1210). S1212).

여기서, 학습용 데이터는 단계 S1200에서 획득한 영상 데이터의 일부일 수 있다. 이상 개체 검출 장치(100)의 학습 전처리부(120)는 단계 S1200에서 획득한 영상 데이터 중 관리자 단말(200)로부터 수신한 피드백 정보에 포함된 시간 영역 및 공간 영역에 따라 영상 데이터를 추출할 수 있다. 예를 들어, 관리자 단말(200)이 n번째 프레임의 일부 영역(예, 도 15(c)의 806))에 오류가 있는 것으로 판단한 경우, 학습용 데이터는 n번째 프레임 중 일부 영역(예, 도 15(c)의 806)일 수 있다. 또는, 관리자 단말(200)이 전체 프레임 중 n번째 프레임에서 n+3번째 프레임의 이상 개체 데이터에 오류가 있는 것으로 판단한 경우, 학습용 데이터는 전체 프레임 중 n번째 프레임에서 n+3번째 프레임일 수 있다. 이에 따라, 이상 개체 검출 장치(100)는 촬영부(111)가 획득한 전체 영상 데이터 중 이상 개체 검출에 오류가 있는 영상 데이터만을 추출하여 학습용 서버(400)에게 전송할 수 있다. 이에 따라, 이상 개체 검출 장치(100)와 학습용 서버(400) 간 통신 트래픽이 현저히 줄어들 수 있다. 여기서, 학습용 데이터는, 추출된 영상 데이터뿐만 아니라, 오류 정보 및 정정 정보 중 적어도 하나를 더 포함할 수도 있다. 오류 정보는 제어부에 의한 판단이 잘못되었음을 알리는 정보이고, 정정 정보는 정정되어야 할 방향을 알리는 정보일 수 있다. 또는, 학습용 데이터는, 추출된 원본의 영상 데이터 및 오류가 정정된 후의 이상 개체 데이터를 포함할 수도 있다. 예를 들어, n번째 프레임 내지 n+3번째 프레임 내 일부 영역(예, 도 15(c)의 806)에 오류가 있는 것으로 판단된 경우, 학습용 데이터는 n번째 프레임 내지 n+3번째 프레임에 대한 원본의 영상 데이터 및 n번째 프레임 내지 n+3번째 프레임에 대한 이상 개체 데이터를 포함할 수 있으며, n번째 프레임 내지 n+3번째 프레임에 대한 이상 개체 데이터는 오류가 있는 것으로 판단된 일부 영역(예, 도 15(c)의 806)의 오류가 정정된 후의 그레이 이미지일 수 있다. 학습용 서버(400)는 이상 개체 검출 장치(100)로부터 수신한 학습용 데이터를 이용하여 재학습(retraining)하며(S1214), 이에 따라 이상 개체 검출을 위한 업데이트 정보를 이상 개체 검출 장치(100)에게 전송한다(S1216). 여기서, 업데이트 정보는 이상 개체 검출을 위한 알고리즘에 적용되는 파라미터일 수 있으며, 이는 조정 가능한 매트릭스(adjustable matrix) 형태일 수 있다.Here, the training data may be part of the image data acquired in step S1200. The learning preprocessor 120 of the abnormal object detection device 100 may extract image data according to the time domain and spatial domain included in the feedback information received from the manager terminal 200 among the image data acquired in step S1200. . For example, if the manager terminal 200 determines that there is an error in some area of the nth frame (e.g., 806 in FIG. 15(c)), the training data is stored in some area of the nth frame (e.g., 806 in FIG. 15(c)). It may be 806) of (c). Alternatively, if the manager terminal 200 determines that there is an error in the abnormal entity data of the n+3th frame from the nth frame among all frames, the learning data may be the n+3th frame from the nth frame among all frames. . Accordingly, the abnormal object detection device 100 can extract only the image data with errors in abnormal object detection out of all the image data acquired by the photographing unit 111 and transmit it to the learning server 400. Accordingly, communication traffic between the abnormal object detection device 100 and the learning server 400 can be significantly reduced. Here, the training data may further include at least one of error information and correction information in addition to the extracted image data. Error information may be information indicating that the judgment by the control unit is incorrect, and correction information may be information indicating the direction to be corrected. Alternatively, the learning data may include extracted original image data and abnormal entity data after errors have been corrected. For example, if it is determined that there is an error in some area (e.g., 806 in FIG. 15(c)) within the nth frame to the n+3th frame, the training data is for the nth frame to the n+3th frame. It may include original image data and abnormal object data for the nth frame to n+3th frame, and the abnormal object data for the nth frame to n+3th frame may include some areas judged to have errors (e.g. , It may be a gray image after the error 806) in FIG. 15(c) has been corrected. The learning server 400 retrains using the learning data received from the abnormal object detection device 100 (S1214), and accordingly transmits update information for abnormal object detection to the abnormal object detection device 100. Do it (S1216). Here, the update information may be a parameter applied to an algorithm for detecting abnormal objects, and may be in the form of an adjustable matrix.

이후, 이상 개체 검출 장치(100)는 단계 S1200와 같이, 복수의 개체가 함께 촬영된 영상에 대한 영상 데이터를 획득하며(S1218), 제어부(112)는 미리 저장된 알고리즘 및 업데이트 정보를 이용하여 획득한 영상 데이터로부터 이상 개체 정보를 추출한다(S1220).Thereafter, the abnormal object detection device 100 acquires image data for an image in which a plurality of objects are photographed together as in step S1200 (S1218), and the control unit 112 obtains image data using a pre-stored algorithm and update information. Abnormal entity information is extracted from image data (S1220).

이에 따라, 이상 개체 검출 장치(100)는 관리자 단말(200)의 피드백 정보를 반영하여 이상 개체를 검출할 수 있으며, 이상 개체 검출 장치(100)와 학습용 서버(400) 간의 통신 트래픽을 줄일 수 있다.Accordingly, the abnormal object detection device 100 can detect abnormal objects by reflecting the feedback information of the administrator terminal 200, and communication traffic between the abnormal object detection device 100 and the learning server 400 can be reduced. .

학습용 서버(400)가 복수의 이상 개체 검출 장치(100)와 통신하는 경우, 학습용 서버(400)는 복수의 이상 개체 검출 장치(100)에게 동일한 업데이트 정보를 전송할 수 있다. 또는, 이상 개체 검출 장치(100) 마다 상이한 환경에 처해 있을 수 있으므로, 업데이트 정보는 이상 개체 검출 장치(100) 마다 특이적일 수도 있다. When the learning server 400 communicates with a plurality of abnormal object detection devices 100, the learning server 400 may transmit the same update information to the plurality of abnormal object detection devices 100. Alternatively, since each abnormal object detection device 100 may be in a different environment, the update information may be specific to each abnormal object detection device 100.

본 발명의 실시예에 따르면, 이상 개체 검출 장치(100)의 객체 밀도 예측 네트워크와 같은 알고리즘을 학습용 서버(400)도 저장하며, 학습용 서버(400)는 이를 이용하여 오류 데이터와 대응되는 원본 영상으로 재학습시키는 것이 바람직하다.According to an embodiment of the present invention, the learning server 400 also stores an algorithm such as the object density prediction network of the abnormal object detection device 100, and the learning server 400 uses this to convert the original image corresponding to the error data. It is desirable to relearn.

이하, 본 발명의 실시예에 따른 이상 개체 검출 장치(100)가 이상 개체를 검출하는 방법을 설명한다.Hereinafter, a method for detecting an abnormal object by the abnormal object detection device 100 according to an embodiment of the present invention will be described.

도 16은 본 발명의 실시예에 따른 이상 개체 검출 장치의 이상 개체 검출 알고리즘을 설명하는 도면이다.Figure 16 is a diagram explaining an abnormal object detection algorithm of the abnormal object detection device according to an embodiment of the present invention.

도16을 참조하면, 제1 특징 추출 유닛(600)은 촬영부(111)에 의하여 촬영된 영상에 대한 영상 데이터 내 복수의 개체의 위치 분포를 추출하고, 제2 특징 추출 유닛(602)은 영상 데이터 내 복수의 개체의 움직임을 추출한다. 그리고, 제어부(604)는 제1 특징 추출 유닛(600)에 의하여 추출된 위치 분포 및 제2 특징 추출 유닛(602)에 의하여 추출된 움직임에 기초하여 이상 개체 정보, 예를 들어 픽셀 별 이상 개체 확률을 추정한다.Referring to FIG. 16, the first feature extraction unit 600 extracts the location distribution of a plurality of objects in the image data for the image captured by the photographing unit 111, and the second feature extraction unit 602 extracts the position distribution of the plurality of objects in the image data. Extract the movements of multiple objects in the data. And, the control unit 604 generates abnormal object information, for example, abnormal object probability for each pixel, based on the position distribution extracted by the first feature extraction unit 600 and the movement extracted by the second feature extraction unit 602. Estimate .

구체적으로, 제1 특징 추출 유닛(600)은 영상 데이터를 이용하여 복수의 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성할 수 있다. 여기서, 복수의 개체의 위치 분포는 위치 별 객체의 밀도 분포를 의미할 수 있으며, 위치 분포 데이터는 밀도 맵과 혼용될 수 있다. 전술한 바와 같이, 제1 특징 추출 유닛(600)은 영상 데이터 내에서 객체가 위치한다고 판단되는 영역을 제안하도록 학습된 제1 알고리즘, 즉 영역 제안 알고리즘을 활용한 실시간 객체 검출 방법을 이용할 수 있다. 제1 특징 추출 유닛(600)은 예를 들면, 복수의 개체를 포함하여 생성된 제1영상 데이터를 이용하여 복수의 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성하고, 복수의 개체를 포함하여 생성된 제2영상 데이터를 이용하여 복수의 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성할 수 있다. 여기서, 제1 위치 분포 데이터 및 제2 위치 분포 데이터는 시계열적으로 생성된 영상 데이터에 대한 위치 분포 데이터일 수 있다. Specifically, the first feature extraction unit 600 may generate position distribution data indicating the position distribution of a plurality of objects using image data. Here, the location distribution of a plurality of objects may mean the density distribution of objects for each location, and location distribution data may be used interchangeably with a density map. As described above, the first feature extraction unit 600 may use a real-time object detection method using a first algorithm learned to suggest a region in which an object is determined to be located within the image data, that is, a region proposal algorithm. For example, the first feature extraction unit 600 generates first position distribution data indicating the position distribution of the plurality of objects using first image data generated including the plurality of objects, and includes the plurality of objects. Second position distribution data representing the position distribution of a plurality of objects can be generated using the generated second image data. Here, the first position distribution data and the second position distribution data may be position distribution data for image data generated in time series.

본 발명의 실시예에서 위치 분포 데이터란, 개별 개체 위치를 표시하는 것이 아니라, 영상 데이터의 구분된 영역 또는 블록 별로 해당되는 영역 또는 블록에 개체, 몸통 또는 머리가 존재할 수 있는 확률을 나타내는 데이터이다. 위치 분포 데이터는 각 픽셀에 개체가 존재할 확률을 다른 색으로 표현하는 히트맵일 수 있다. In an embodiment of the present invention, position distribution data does not indicate the location of an individual object, but is data indicating the probability that an object, body, or head may exist in the corresponding area or block for each divided area or block of image data. Location distribution data may be a heatmap that expresses the probability that an object exists in each pixel in different colors.

또한, 제1 특징 추출 유닛(600)은 개체 검출 분류기를 이용하여 영상 데이터에서 동물 개체를 검출할 수 있다. 이때, 개체 검출 분류기는 동물 개체의 자세나 외부 환경을 달리하여 기촬영한 동물 개체의 영상들로부터 훈련 DB 를 구축하여 학습된 것으로서, 이러한 개체 검출 분류기는 SVM(Support Vector Machine), 신경망, AdaBoost 알고리즘 등을 포함하는 다양한 학습 알고리즘을 통해 동물 개체의 DB 를 생성한다. 구체적으로, 제1 특징 추출 유닛(600)은 기 촬영된 사육장 내 배경의 영상 데이터에서 전경에 해당하는 개체의 에지를 검출하고, 영상 데이터에서 검출된 전경 개체의 에지를 적용하고, 전경 개체의 에지가 적용된 영상 데이터의 영역에 개체 검출 분류기를 적용하여 동물 개체를 검출할 수 있다.Additionally, the first feature extraction unit 600 may detect animal entities from image data using an entity detection classifier. At this time, the object detection classifier is learned by building a training database from images of animal objects taken with different postures or external environments. This object detection classifier uses SVM (Support Vector Machine), neural network, and AdaBoost algorithm. A DB of animal entities is created through various learning algorithms, including: Specifically, the first feature extraction unit 600 detects the edge of an object corresponding to the foreground from the image data of the background in the previously photographed breeding farm, applies the edge of the foreground object detected in the image data, and extracts the edge of the foreground object. Animal objects can be detected by applying an object detection classifier to the area of the image data to which is applied.

제2 특징 추출 유닛(602)은 영상 데이터를 이용하여 복수의 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성할 수 있다. 여기서, 동작 데이터는 개별 개체의 움직임을 표시하는 것이 아니라, 영상 데이터의 구분된 영역 또는 블록 별로 해당되는 영역 또는 블록에 움직임이 존재했는지 여부를 나타내는 데이터이고, 동작 데이터는 동작 맵과 혼용될 수 있다. 동작 데이터는 픽셀 별로 해당되는 픽셀에 움직임이 존재했는지 여부를 나타내는 데이터일 수도 있다. 전술한 바와 같이, 제2 특징 추출 유닛(602)은 옵티컬 플로우(optical flow)를 활용하여 모션을 검출하도록 학습된 제2 알고리즘을 이용할 수 있다. 제2 특징 추출 유닛(602)은 단일 영상 데이터 또는 복수개의 연속된 영상 데이터를 이용하여 분포도 상의 특정 지점, 특정 개체 또는 특정 픽셀에서의 움직임을 검출할 수 있다.The second feature extraction unit 602 may use image data to generate motion data representing the movement of a motion object among a plurality of objects. Here, motion data does not indicate the movement of an individual object, but is data indicating whether motion was present in the corresponding region or block for each divided area or block of image data, and motion data can be used interchangeably with a motion map. . Motion data may be data indicating whether movement exists in the corresponding pixel for each pixel. As described above, the second feature extraction unit 602 may use a second algorithm learned to detect motion using optical flow. The second feature extraction unit 602 may detect movement at a specific point, specific object, or specific pixel on the distribution map using single image data or a plurality of continuous image data.

제2 특징 추출 유닛(602)은 예를 들면, 제1영상 데이터를 이용하여 복수의 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성하고, 제2 영상 데이터를 이용하여 복수의 개체 중 동작 개체의 움직임을 나타내는 제2 동작 데이터를 생성할 수 있다. 여기서, 제1 동작 데이터 및 제2 동작 데이터는 시계열적으로 생성된 복수 개의 영상 데이터에 대한 동작 데이터일 수 있다.For example, the second feature extraction unit 602 uses first image data to generate first motion data indicating the movement of a motion object among a plurality of objects, and uses the second image data to generate motion among a plurality of objects. Second motion data representing the movement of the object may be generated. Here, the first motion data and the second motion data may be motion data for a plurality of image data generated in time series.

제2 특징 추출 유닛(602)은 Dense Optical Flow방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 제2 특징 추출 유닛(602)은 영상 데이터 상의 모든 픽셀에 대해서 모션 벡터(Motion Vector)를 연산하여 각 픽셀에 대한 움직임을 검출할 수 있다. Dense Optical Flow방식의 경우 모든 픽셀에 대하여 모션 벡터를 연산하기 때문에 검출 정확도는 향상되지만 상대적으로 연산량은 증가하게 된다. 따라서, Dense Optical Flow방식은 이상상황이 발생된 것으로 의심되는 사육장이나 개체 숫자가 매우 많은 사육장 등 검출 정확도가 매우 높게 요구되는 특정 영역에 적용될 수 있다.The second feature extraction unit 602 can detect the movement of the moving object using the Dense Optical Flow method. The second feature extraction unit 602 may detect movement for each pixel by calculating a motion vector for all pixels in the image data. In the case of the Dense Optical Flow method, detection accuracy is improved because motion vectors are calculated for all pixels, but the amount of calculation is relatively increased. Therefore, the Dense Optical Flow method can be applied to specific areas that require very high detection accuracy, such as breeding farms where abnormal situations are suspected to have occurred or breeding farms with a very large number of individuals.

또는 제2 특징 추출 유닛(602)은 Sparse Optical Flow방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 제2 특징 추출 유닛(602)은 영상 내 에지와 같은 움직임 추적이 쉬운 특징적인 일부 픽셀에 대해서만 모션 벡터를 연산하여 움직임을 검출할 수 있다. Sparse Optical Flow방식은 연산량이 감소하지만 한정적인 픽셀에 대한 결과만 얻을 수 있다. 따라서, Sparse Optical Flow방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the second feature extraction unit 602 may detect the movement of the moving object using the Sparse Optical Flow method. The second feature extraction unit 602 may detect motion by calculating a motion vector only for some characteristic pixels that are easy to track motion, such as edges in the image. The Sparse Optical Flow method reduces the amount of computation, but results can only be obtained for a limited number of pixels. Therefore, the Sparse Optical Flow method can be applied to breeding grounds with a small number of individuals or to specific areas where individuals do not appear overlapping.

또는 제2 특징 추출 유닛(602)은 Block Matching을 이용하여 동작 개체의 움직임을 검출할 수 있다. 제2 특징 추출 유닛(602)은 영상을 균등하게 또는 비균등하게 분할하여 분할 영역에 대해 모션 벡터를 연산하여 움직임을 검출할 수 있다. Block Matching은 분할 영역별로 모션 벡터를 연산하기 때문에 연산량이 감소하지만 영역별 모션 벡터에 대한 결과를 산출하기 때문에 검출 정확도가 상대적으로 낮을 수 있다. 따라서, Block Matching방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the second feature extraction unit 602 may detect the movement of the moving object using block matching. The second feature extraction unit 602 may divide the image equally or unevenly and detect motion by calculating a motion vector for the divided area. Block Matching reduces the amount of computation because it calculates motion vectors for each segmented region, but detection accuracy may be relatively low because it calculates results for motion vectors for each region. Therefore, the Block Matching method can be applied to breeding farms with a small number of individuals or to specific areas where individuals do not appear overlapping.

또는 제2 특징 추출 유닛(602)은 Continuous Frame Difference 방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 제2 특징 추출 유닛(602)은 연속하는 영상 프레임을 픽셀 별로 비교하고, 그 차이만큼의 값을 연산하여 움직임을 검출할 수 있다. Continuous Frame Difference 방식은 프레임간 차이값을 이용하여 움직임을 검출하기 때문에, 전체적인 연산량은 감소하지만 부피가 큰 개체 또는 중복되어 나타나는 개체에 대한 검출 정확도가 상대적으로 낮을 수 있다. 또한, Continuous Frame Difference 방식은 배경 영상과 움직이지 않는 개체를 구분할 수 없어 정확도가 상대적으로 낮을 수 있다. 따라서, Continuous Frame Difference 방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the second feature extraction unit 602 may detect the movement of the moving object using the Continuous Frame Difference method. The second feature extraction unit 602 can detect motion by comparing consecutive image frames for each pixel and calculating a value equal to the difference. Since the Continuous Frame Difference method detects motion using the difference value between frames, the overall computational amount is reduced, but the detection accuracy for bulky objects or overlapping objects may be relatively low. Additionally, the Continuous Frame Difference method cannot distinguish between background images and non-moving objects, so its accuracy may be relatively low. Therefore, the Continuous Frame Difference method can be applied to breeding grounds with a small number of individuals or to specific areas where individuals do not appear overlapping.

또는 제2 특징 추출 유닛(602)은 Background Subtraction 방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 제2 특징 추출 유닛(602)은 배경 영상을 초기에 학습한 상태에서 연속하는 영상 프레임을 픽셀 별로 비교하고, 그 차이만큼의 값을 연산하여 움직임을 검출할 수 있다. Background Subtraction 방식은 배경 영상을 미리 학습하고 있기 때문에 배경 영상과 움직이지 않는 개체를 구분할 수 있다. 따라서, 배경 영상을 필터링하는 별도의 과정이 필요하여 연산량은 증가하지만 정확도는 향상된다. 따라서, Background Subtraction 방식은 이상상황이 발생된 것으로 의심되는 사육장이나 개체 숫자가 매우 많은 사육장 등 검출 정확도가 매우 높게 요구되는 특정 영역에 적용될 수 있다. Background Subtraction 방식에서 배경 영상은 지속적으로 업데이트 될 수 있다.Alternatively, the second feature extraction unit 602 may detect the movement of the moving object using the Background Subtraction method. The second feature extraction unit 602 may detect motion by comparing successive image frames for each pixel while initially learning the background image, and calculating a value equal to the difference. Because the Background Subtraction method learns the background image in advance, it can distinguish between the background image and non-moving objects. Therefore, a separate process for filtering the background image is required, which increases the amount of computation but improves accuracy. Therefore, the Background Subtraction method can be applied to specific areas that require very high detection accuracy, such as breeding farms where abnormal situations are suspected to have occurred or breeding farms with a very large number of individuals. In the Background Subtraction method, the background image can be continuously updated.

제2 특징 추출 유닛(602)은 사육장 내의 환경과 외부의 설정에 따라 적절한 방식을 이용하여 분포도 상에서 움직임을 검출한다. 위의 움직임 검출 방식은 예시일 뿐, 프레임 내 움직임이 발생한 영역(예를 들어 픽셀/블록)을 표시할 수 있는 방법들이 사용될 수 있다.The second feature extraction unit 602 detects movement on the distribution map using an appropriate method according to the environment within the breeding farm and external settings. The above motion detection method is only an example, and methods that can display the area (e.g., pixel/block) where movement occurred within the frame can be used.

제1 특징 추출 유닛(600)이 위치 분포 데이터를 생성하는 과정과 제2 특징 추출 유닛(602)이 동작 데이터를 생성하는 과정은 동시에 이루어지거나, 병렬적으로 이루어지거나, 순차적으로 이루어질 수 있다. 즉, 제1 특징 추출 유닛(600)이 위치 분포 데이터를 생성하는 과정과 제2 특징 추출 유닛(602)이 동작 데이터를 생성하는 과정은 서로 독립적으로 처리됨을 의미할 수 있다. The process of the first feature extraction unit 600 generating position distribution data and the process of the second feature extraction unit 602 generating motion data may be performed simultaneously, in parallel, or sequentially. That is, this may mean that the process of the first feature extraction unit 600 generating position distribution data and the process of the second feature extraction unit 602 generating motion data are processed independently of each other.

제어부(604)는 영상 데이터의 위치 분포 데이터 및 동작 데이터를 영역별, 블록 별 또는 픽셀 별로 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터 또는 이상 개체를 나타내는 이상 개체 데이터를 영역 별, 블록 별 또는 픽셀 별로 생성할 수 있다. The control unit 604 compares the position distribution data and motion data of the image data by region, block, or pixel, and selects abnormal object candidate data representing an abnormal object candidate or abnormal object data representing an abnormal object by region, block, or pixel. Stars can be created.

제어부(604)는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 영상 데이터 상에서 복수개의 개체에 대한 픽셀 표시를 제어할 수도 있다. 제어부(604)는 예를 들면, 이상 개체 데이터에 따라 영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어할 수 있다. 여기서, 픽셀의 표시란 픽셀의 채도, 픽셀의 명암, 픽셀의 색상, 픽셀의 윤곽선, 마크 표시 등 임의의 지점에 대응되는 픽셀을 다른 픽셀과 구분하여 표시하기 위한 모든 개념을 포함할 수 있다. 본 발명의 실시예에서는 픽셀값의 조절을 통하여 픽셀의 표시를 제어할 수 있다. 픽셀값은 단계적으로 조절될 수 있으며, 픽셀값이 높은 픽셀의 경우, 픽셀값이 낮은 픽셀 보다 시각적으로 강조되어 표시될 수 있다. 그러나 이에 한정되는 것은 아니고, 픽셀값이 낮은 픽셀이 픽셀값이 높은 픽셀보다 강조되어 표시되는 것으로 설정할 수 있다. 여기서, 픽셀값은 픽셀 별 이상 개체 확률을 의미할 수 있다.The control unit 604 may control the display of pixels for a plurality of objects on the image data according to the accumulated number of motion detections and the accumulated number of non-motion detections of the abnormal object data. For example, the control unit 604 may control pixel display for a plurality of blocks on image data according to abnormal entity data. Here, pixel display may include all concepts for distinguishing and displaying a pixel corresponding to an arbitrary point from other pixels, such as pixel saturation, pixel brightness, pixel color, pixel outline, and mark display. In an embodiment of the present invention, the display of pixels can be controlled by adjusting pixel values. Pixel values can be adjusted in stages, and pixels with high pixel values can be displayed with greater visual emphasis than pixels with low pixel values. However, it is not limited to this, and pixels with low pixel values can be set to be displayed with greater emphasis than pixels with high pixel values. Here, the pixel value may mean the probability of an abnormal object for each pixel.

이하에서는 움직임이 검출된 픽셀과 개체를 동일시하여 설명하기 위하여 하나의 픽셀은 하나의 개체를 표현하는 것으로 한다. 이는 설명의 편의를 위한 것이며 실제로는 복수개의 픽셀이 하나의 개체를 표현하게 된다. 즉, 가금류의 일부 신체 영역의 움직임만을 검출하여 이상상황을 판단하기 위하여서는 픽셀별로 움직임을 검출하여 픽셀의 표시를 제어하는 방식이 사용될 것이다.Hereinafter, in order to explain the same thing as the pixel in which movement is detected and the object, one pixel is assumed to represent one object. This is for convenience of explanation, and in reality, multiple pixels represent one object. In other words, in order to determine an abnormal situation by detecting only the movement of some body regions of poultry, a method of detecting movement for each pixel and controlling the display of pixels will be used.

제어부(604)는 특정 개체의 움직임이 검출되지 않을수록 이상개체로 분류하고, 움직임이 검출될수록 정상개체로 분류하여 픽셀값을 다르게 표시할 수 있다.The control unit 604 may classify a specific object as an abnormal object the less movement is detected, classify it as a normal object as movement is detected, and display pixel values differently.

여기서, 제1 특징 추출 유닛(600), 제2 특징 추출 유닛(602) 및 제어부(604) 각각은 학습용 서버(400)로부터 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보를 수신할 수 있고, 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보 각각은 제1 특징 추출 유닛(600), 제2 특징 추출 유닛(602) 및 제어부(604) 각각에 적용될 수 있다. 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보는 이상 개체 검출 장치(100)에 의하여 전송된 학습용 데이터를 학습한 결과, 학습용 서버(400)가 추출한 업데이트 정보일 수 있다. 여기서, 학습용 데이터는 이상 개체 검출 장치(100)가 획득한 영상 데이터의 일부 및 오류가 정정된 이상 개체 데이터의 일부를 포함할 수 있으며, 이는 이상 개체 검출 장치(100)가 이상 개체 검출용 알고리즘을 구동하여 얻은 이상 개체 정보에 대한 관리자 단말(200)의 피드백 정보를 이용하여 얻어질 수 있다. 여기서, 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보 각각은 조정 가능한 매트릭스(adjustable matrix)를 포함할 수 있다. Here, the first feature extraction unit 600, the second feature extraction unit 602, and the control unit 604 may each receive first update information, second update information, and third update information from the learning server 400. And each of the first update information, second update information, and third update information may be applied to each of the first feature extraction unit 600, the second feature extraction unit 602, and the control unit 604. The first update information, second update information, and third update information may be update information extracted by the learning server 400 as a result of learning the learning data transmitted by the abnormal object detection device 100. Here, the learning data may include a part of the image data acquired by the abnormal object detection device 100 and a part of the abnormal object data with errors corrected, which allows the abnormal object detection device 100 to use an algorithm for detecting an abnormal object. It can be obtained by using the feedback information of the manager terminal 200 about the abnormal entity information obtained by driving. Here, each of the first update information, second update information, and third update information may include an adjustable matrix.

도16을 참조하면, 먼저 n번째 영상 데이터를 획득한다. 여기서, 영상 데이터는, 예를 들어 W X H크기의 RGB데이터일 수 있다(S1601). 여기서, n번째 영상 데이터는 n번째 원본 데이터, n번째 원본 영상, n 번째 원본 영상 데이터 등과 혼용될 수 있다.Referring to Figure 16, first, the nth image data is acquired. Here, the image data may be, for example, RGB data of size W x H (S1601). Here, the nth image data can be used interchangeably with nth original data, nth original image, and nth original image data.

이상 개체 검출 장치(100)의 제어부(112), 예를 들어 제1 특징 추출 유닛(600)은 n번째 영상 데이터에서 개체를 검출하여 n번째 영상 데이터에 대한 개체의 위치 분포 데이터를 생성한다(S1602). 여기서, 위치 분포 데이터는 영역 별, 블록 별, 또는 픽셀 별로 생성될 수 있으며, 제어부(112)는 영상 데이터 내에서 객체가 위치한다고 판단되는 영역을 제안하도록 학습된 제1 알고리즘을 이용할 수 있다. 여기서, 제1 알고리즘은, 전술한 바와 같이 객체가 존재하는 영역을 표시하는 알고리즘을 활용한 실시간 객체 검출 방법을 이용할 수 있다, 또는, 제1 알고리즘은 객체의 분포 정보, 즉 객체가 위치하는 영역의 밀도 정보를 나타내는 방법을 이용할 수도 있다. 여기서, 위치 분포 데이터는 제1 밀도 맵일 수 있다. The control unit 112 of the abnormal object detection apparatus 100, for example, the first feature extraction unit 600, detects an object in the n-th image data and generates location distribution data of the object for the n-th image data (S1602) ). Here, location distribution data may be generated for each region, block, or pixel, and the control unit 112 may use a first algorithm learned to suggest an area in the image data where the object is determined to be located. Here, the first algorithm may use a real-time object detection method using an algorithm that displays the area where the object exists, as described above. Alternatively, the first algorithm may use the distribution information of the object, that is, the area where the object is located. A method of representing density information can also be used. Here, the location distribution data may be a first density map.

이하 설명에서는 영상 데이터의 픽셀 별 연산을 이용하여 이상 개체 데이터를 연산 또는 표시하는 방법을 설명한다. The following description explains a method of calculating or displaying abnormal object data using pixel-by-pixel calculation of image data.

위치 분포 데이터에는 업데이트 파라미터 μ값이 적용된다. 또는 업데이트 파라미터 μ값과 오프셋 파라미터 ε값이 동시에 적용될 수도 있다. μ는 아주 작은 값으로 예를 들어 0.001일 수 있다. 즉, 위치 분포 데이터가 오랫 동안 누적이 되어야만 서서히 픽셀에 표시되도록 제어하는 것이다. offset parameter ε는 위치 분포 데이터의 누적을 조정하는 parameter로서 μ대비 1/10~1/100의 값을 가질 수 있다(S1603). The update parameter μ value is applied to the location distribution data. Alternatively, the update parameter μ value and the offset parameter ε value may be applied simultaneously. μ may be a very small value, for example 0.001. In other words, position distribution data is controlled to be gradually displayed in pixels only when it is accumulated over a long period of time. The offset parameter ε is a parameter that adjusts the accumulation of position distribution data and can have a value of 1/10 to 1/100 of μ (S1603).

이상 개체 검출 장치(100)의 제어부(112), 예를 들어 제2 특징 추출 유닛(602)은 n-1번째 영상 데이터와 n번째 영상 데이터를 비교하여 n번째 영상 데이터에 대한 개체의 움직임을 검출한다. 이 때, n-1번째 영상 데이터는 래치회로 또는 버퍼회로에 저장되어 있을 수 있다. 이상 개체 검출 장치(100)의 제2 특징 추출 유닛(602)는 검출한 움직임에 따라 동작 데이터를 생성한다(S1604). 여기서, 동작 데이터는 동작 맵일 수 있다. 여기서, 동작 데이터는 영역 별, 블록 별 또는 픽셀 별로 생성될 수 있으며, 제어부(112)는 옵티컬 플로우(optical flow)를 활용하여 모션을 검출하도록 학습된 제2 알고리즘(motion detector)을 이용할 수 있다. 동작 데이터에는 업데이트 파라미터 κ가 적용될 수 있다. κ는 동작 데이터의 누적을 조정하는 파라미터이다(S1605). The control unit 112 of the abnormal object detection device 100, for example, the second feature extraction unit 602, compares the n-1th image data and the nth image data to detect the movement of the object for the nth image data. do. At this time, the n-1th image data may be stored in a latch circuit or buffer circuit. The second feature extraction unit 602 of the abnormal object detection apparatus 100 generates motion data according to the detected movement (S1604). Here, the motion data may be a motion map. Here, motion data can be generated for each region, block, or pixel, and the control unit 112 can use a second algorithm (motion detector) learned to detect motion using optical flow. An update parameter κ may be applied to the motion data. κ is a parameter that adjusts the accumulation of motion data (S1605).

이상 개체 검출 장치(100)의 제어부(112), 예를 들어 제어부(604)는 n번째 영상 데이터의 위치 분포 데이터에 n-1번째 이상 개체 데이터를 합하고(S1606), n번째 영상 데이터의 동작 데이터를 감하여 n번째 영상 데이터에 대한 이상 개체 데이터를 생성한다(S1607). 여기서, n번째 영상 데이터에 대한 이상 개체 데이터는 n번째 이상 개체 밀도 맵일 수 있다.The control unit 112 of the abnormal object detection device 100, for example, the control unit 604, adds the n-1th abnormal object data to the position distribution data of the nth image data (S1606) and motion data of the nth image data. Subtracts to generate abnormal entity data for the nth image data (S1607). Here, the abnormal object data for the nth image data may be the nth abnormal object density map.

본 발명의 실시예에 따른 이상 개체 검출 장치(100)는 S1601 내지 S1607과정을 반복하여 움직임이 검출된 개체의 색상은 연하게 또는 원본 색상에 가깝게 표시하고, 움직임이 누적하여 검출되지 않은 개체의 색상은 진하게 또는 빨간 색상에 가깝게 표시하도록 제어할 수 있다. The abnormal object detection device 100 according to an embodiment of the present invention repeats processes S1601 to S1607 to display the color of the object for which movement has been detected lightly or close to the original color, and the color of the object for which movement has not been accumulated and detected. can be controlled to display in a darker or closer to red color.

이후, n번째 이상 개체 데이터는 n번째 영상 데이터, 즉 n번째 원본 데이터 상에 정합될 수 있으며, n번째 원본 데이터 상에 n번째 이상 개체 데이터가 정합된 영상이 관리자 단말(200)에 표시될 수 있다. 즉, n번째 영상 내 이상 개체가 위치한 영역은 n번째 이상 개체 밀도 맵을 이용하여 마스킹될 수 있으며, 마스킹된 영상이 관리자 단말(200)에 표시될 수 있다. Thereafter, the nth or higher object data may be matched to the nth image data, that is, the nth original data, and an image in which the nth or higher object data is matched to the nth original data may be displayed on the administrator terminal 200. there is. That is, the area where the abnormal object is located in the nth image can be masked using the nth abnormal object density map, and the masked image can be displayed on the administrator terminal 200.

본 발명의 실시예에 따른 이상 개체 검출 장치(100)의 동작은 아래와 같은 수학식 1을 적용할 수 있다.Equation 1 below can be applied to the operation of the abnormal object detection device 100 according to an embodiment of the present invention.

Figure 112018071032220-pat00001
Figure 112018071032220-pat00001

수학식 1에서 μ는 업데이트 파라미터로 설정에 따라 변경될 수 있다. In Equation 1, μ is an update parameter and can be changed depending on settings.

수학식 1에서 Pixelt, Pixelt -1은 이상 개체 데이터로서, 이상 개체의 존재 여부를 픽셀에 표시하기 위한 값으로서 픽셀의 농도를 의미할 수 있다. 이상 개체가 존재할 확률이 높은 픽셀일수록 더 진한 색으로 표시할 수 있도록 하는 것이다. 예를 들어, 이상 개체가 존재할 확률이 없으면 원색(하얀색)으로 표시되고, 이상 개체가 존재할 확률이 높을수록 빨강색에 가깝게 표현하고, 이상 개체가 존재할 확률이 아주 높다고 판단되면 가장 진한 빨강색으로 표시되게 하는 것이다. 따라서, Pixelt, Pixelt -1은 0에서 1 사이의 값을 가지도록 설정할 수 있으며, 0에 가까울수록 원색(하얀색)에 가깝게 표시되고, 1에 가까울수록 빨강색으로 표시된다.In Equation 1, Pixel t and Pixel t -1 are abnormal object data, and may mean the density of the pixel as a value for indicating the presence or absence of the abnormal object in the pixel. Pixels with a higher probability of an abnormal object being present are displayed in a darker color. For example, if there is no probability that an abnormal entity exists, it is displayed in primary color (white); the higher the probability that an abnormal entity exists, the closer to red it is displayed; if it is determined that the probability of an abnormal entity existing is very high, it is displayed in the darkest red. It is to make it happen. Therefore, Pixel t and Pixel t -1 can be set to have a value between 0 and 1. The closer it is to 0, the closer it is to the primary color (white), and the closer it is to 1, the more it is displayed in red.

수학식 1에서 Pixelt - 1는 위치 분포 데이터 및 동작 데이터가 누적된 직전 프레임의 이상 개체 데이터이다. 수학식 1에서 Pixelt는 현재 프레임의 위치분포 데이터와 동작 데이터를 적용하여 업데이트된 이상 개체 데이터이다.In Equation 1, Pixel t - 1 is abnormal object data of the previous frame in which position distribution data and motion data were accumulated. In Equation 1, Pixelt is abnormal object data updated by applying the position distribution data and motion data of the current frame.

수학식 1에서 Wt는 현재 프레임의 위치 분포 데이터일 수 있다. 위치 분포 데이터는 해당 픽셀에 개체가 존재하는지 확률로서 0에서 1 사이의 값을 가질 수 있다. 위치 분포 데이터에는 update parameter μ가 적용될 수 있다. μ는 아주 작은 값으로 예를 들어 0.001일 수 있다. 즉, 위치 분포 데이터가 오랫 동안 누적이 되어야만 서서히 픽셀에 표시되도록 제어하는 것이다. In Equation 1, W t may be position distribution data of the current frame. Location distribution data is the probability that an object exists in the corresponding pixel and can have a value between 0 and 1. The update parameter μ can be applied to location distribution data. μ may be a very small value, for example 0.001. In other words, position distribution data is controlled to be gradually displayed in pixels only when it is accumulated over a long period of time.

수학식 1에서 Ft 는 현재 프레임의 동작 데이터일 수 있다. 동작 데이터는 모션 벡터의 절대값을 산출한 것으로서 0 이상의 값을 가질 수 있다. 모션 벡터의 크기는 개체의 속도에 대응되므로 1이상의 값을 가질 수 있다. 동작 데이터에는 별도의 파라미터 를 반영하지 않아 해당 픽셀에서 동작이 검출된 경우에는 해당 픽셀의 표시는 초기화가 되도록 제어한다.In Equation 1, F t may be motion data of the current frame. The motion data is calculated from the absolute value of the motion vector and may have a value of 0 or more. The size of the motion vector corresponds to the speed of the object, so it can have a value greater than 1. No separate parameters are reflected in the motion data, so when motion is detected in the pixel, the display of the pixel is controlled to be initialized.

즉, 현재 프레임의 이상 개체 데이터는 이상 개체 존재 확률(Pixelt)을 포함하며, 이상 개체 존재 확률(Pixelt)은 이전 프레임의 영상 데이터로부터 생성된 이상 개체 데이터의 이상 개체 존재 확률(Pixelt -1), 현재 프레임의 영상 데이터로부터 생성된 위치 분포 데이터의 개체 존재 확률(Wt) 및 현재 프레임의 영상 데이터로부터 생성된 동작 데이터의 움직임 값(Ft)을 이용하여 산출될 수 있다.That is, the abnormal object data of the current frame includes the abnormal object presence probability (Pixelt), and the abnormal object presence probability (Pixel t ) is the abnormal object presence probability (Pixel t -1 ) of the abnormal object data generated from the video data of the previous frame. ), the entity presence probability (Wt) of the location distribution data generated from the image data of the current frame, and the motion value (Ft) of the motion data generated from the image data of the current frame.

또는 실시예에 따른 이상 개체 검출 장치의 동작은 아래와 같은 수학식 2를 적용할 수 있다.Alternatively, Equation 2 below can be applied to the operation of the abnormal object detection device according to the embodiment.

Figure 112018071032220-pat00002
Figure 112018071032220-pat00002

※μ: update parameter, ε: offset parameter※μ: update parameter, ε: offset parameter

수힉식2는 수학식1에서 offset parameter ε가 추가된 것으로 수학식1과 동일한 설명은 생략한다. offset parameter ε는 위치 분포 데이터의 누적을 조정하는 parameter로서 μ대비 1/10~1/100의 값을 가질 수 있다. Equation 2 is an offset parameter ε added to Equation 1, and the same explanation as Equation 1 is omitted. The offset parameter ε is a parameter that adjusts the accumulation of position distribution data and can have a value of 1/10 to 1/100 of μ.

또는 실시예에 따른 이상 개체 검출 장치의 동작은 아래와 같은 수학식 3또는 수학식 4를 적용할 수 있다.Alternatively, Equation 3 or Equation 4 below can be applied to the operation of the abnormal object detection device according to the embodiment.

Figure 112018071032220-pat00003
Figure 112018071032220-pat00003

Figure 112018071032220-pat00004
Figure 112018071032220-pat00004

※μ: update parameter, ε: offset parameter, κ: update parameter※μ: update parameter, ε: offset parameter, κ: update parameter

수학식3 또는 수학식4는 동작 데이터 Ft에 update parameter κ를 곱한 것으로서 수학식1 및 수학식2와 동일한 내용은 생략한다. constant κ는 동작 데이터의 누적을 조정하는 parameter이다.Equation 3 or Equation 4 is the operation data Ft multiplied by the update parameter κ, and the same contents as Equation 1 and Equation 2 are omitted. Constant κ is a parameter that adjusts the accumulation of motion data.

또는 실시예에 따른 이상 개체 검출 장치의 동작은 아래와 같은 수학식 5를 적용할 수 있다.Alternatively, Equation 5 below can be applied to the operation of the abnormal object detection device according to the embodiment.

Figure 112018071032220-pat00005
Figure 112018071032220-pat00005

수학식5는 수학식1,2,3 또는 4의 값이 0 이하로 떨어지는 것을 방지하기 위한 수식이다. 예를들어 동작 데이터(Ft)의 크기가 다른 파라미터 값의 합보다 크게 되어, 수학식1,2,3 또는 4의 값이 0보다 작은 음수가 될 경우 이를 보정하여 0으로 표시될 수 있도록 보정하는 제어 방법이다.Equation 5 is a formula to prevent the value of Equation 1, 2, 3, or 4 from falling below 0. For example, if the size of the motion data (F t ) becomes larger than the sum of other parameter values, and the value of Equation 1, 2, 3, or 4 becomes a negative number less than 0, correct it so that it is displayed as 0. This is a control method.

도 17은 학습용 서버에 의하여 재학습된 결과를 이용하여 본 발명의 실시예에 따른 이상 개체 검출 장치가 이상 개체를 검출하는 방법을 설명하는 도면이다. FIG. 17 is a diagram illustrating a method in which an abnormal object detection device according to an embodiment of the present invention detects an abnormal object using results re-trained by a learning server.

도17을 참조하면, S1701 내지 S1707과정 동안 학습용 서버(400)로부터 수신한 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보가 적용될 수 있다. 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보를 얻기 위하여, 본 발명의 실시예에 따른 이상 개체 검출 장치(100)는 학습용 데이터를 추출하여 학습용 서버(400)에 전송할 수 있다. 이때, 학습용 데이터는 이상 개체 검출 장치(100)가 획득한 영상 데이터의 일부를 포함할 수 있으며, 이는 이상 개체 검출 장치(100)가 이상 개체 검출을 위한 알고리즘을 구동하여 추출한 이상 개체 정보에 대한 피드백 정보를 이용하여 얻어질 수 있다. 여기서, 피드백 정보는 관리자 단말(200)에 의하여 수정된 정보를 포함할 수 있다. Referring to Figure 17, the first update information, second update information, and third update information received from the learning server 400 during processes S1701 to S1707 may be applied. In order to obtain the first update information, the second update information, and the third update information, the abnormal object detection device 100 according to an embodiment of the present invention may extract training data and transmit it to the learning server 400. At this time, the learning data may include part of the image data acquired by the abnormal object detection device 100, which provides feedback on abnormal object information extracted by the abnormal object detection device 100 by running an algorithm for detecting abnormal objects. It can be obtained using information. Here, the feedback information may include information modified by the manager terminal 200.

더욱 구체적으로, 도 17(a)를 참조하면, 본 발명의 실시예에 따른 이상 개체 검출 장치(100)는 학습용 데이터를 추출하여 학습용 서버(400)에 전송할 수 있으며, 학습용 서버(400)는 이상 개체 검출 장치(100)로부터 수신한 학습용 데이터를 이용하여 객체 밀도 예측 네트워크를 재학습(retraining), 즉 업데이트할 수 있다. 여기서, 학습용 데이터는 오류가 있는 것으로 지시된 영상 데이터 및 오류가 정정된 이상 개체 데이터를 포함할 수 있다. 예를 들어, n 번째 프레임 내 일부 영역(806)에 이상 개체가 존재하지 않음에도 불구하고 이상 개체가 존재하는 것으로 검출된 경우, 학습용 데이터는 n번째 프레임의 영상 데이터 및 n번째 프레임의 이상 개체 데이터 중 일부 영역(806)의 오류가 정정된 이상 개체 데이터를 포함할 수 있다. 여기서, 오류가 정정된 이상 개체 데이터는 관리자 단말(200)에 의하여 개체의 밀도가 수정된 정보일 수 있으며, 이상 개체 검출 장치(100)가 추출한 영역 별, 블록 별 또는 픽셀 별 개체의 밀도 분포를 제1 밀도 맵이라 하는 경우, 관리자 단말(200)에 의하여 수정된 영역 별, 블록 별 또는 픽셀 별 개체의 밀도 분포는 제2 밀도 맵이라 지칭할 수 있다. 학습용 서버(400)는 학습용 서버(400) 내 객체 밀도 예측 네트워크의 출력 영상과 학습용 데이터에 포함된 오류가 정정된 영상, 즉 정답 영상을 비교하여 손실(loss)을 구하고, 해당 손실을 최소화 하도록 학습기(trainer)에서 객체 밀도 예측 network의 변수들(예를 들어, feature map 등)을 학습(보정)할 수 있다.More specifically, referring to FIG. 17(a), the abnormal object detection device 100 according to an embodiment of the present invention can extract training data and transmit it to the learning server 400, and the learning server 400 can detect abnormalities. The object density prediction network can be retrained, that is, updated, using the training data received from the object detection device 100. Here, the training data may include image data indicated as having an error and abnormal entity data with the error corrected. For example, if an abnormal object is detected to exist in some area 806 within the nth frame even though the abnormal object does not exist, the training data is the image data of the nth frame and the abnormal object data of the nth frame. Some areas 806 may include abnormal entity data in which errors have been corrected. Here, the abnormal object data with the error corrected may be information whose density of the object has been corrected by the manager terminal 200, and the density distribution of the object by region, block, or pixel extracted by the abnormal object detection device 100. In the case of a first density map, the density distribution of objects for each region, block, or pixel modified by the administrator terminal 200 may be referred to as a second density map. The learning server 400 calculates the loss by comparing the output image of the object density prediction network within the learning server 400 with the error-corrected image included in the learning data, that is, the correct image, and uses a learner to minimize the loss. You can learn (calibrate) the variables (e.g. feature map, etc.) of the object density prediction network in (trainer).

이후, 도 17(b)를 참조하면, 이상 개체 검출 장치(100)의 제어부(112)는 위치 분포 데이터를 생성하는 단계, 즉 S1702에서, 학습용 서버(400)에 의하여 재학습된 객체 밀도 네트워크를 이용할 수 있다. 즉, 이상 개체 검출 장치(100)의 제어부(112)는 학습용 서버(400)로부터 학습용 데이터, 예를 들어 n번째 영상 및 제2 밀도 맵을 이용한 재학습에 의하여 얻어진 업데이트 정보를 이용하여 n번째 영상 이후의 소정 영상에 대한 이상 개체 밀도 맵을 출력할 수 있다. Thereafter, referring to FIG. 17(b), the control unit 112 of the abnormal object detection device 100 generates location distribution data, that is, in S1702, the object density network retrained by the learning server 400 is generated. Available. That is, the control unit 112 of the abnormal object detection device 100 uses training data from the learning server 400, for example, the n-th image, and update information obtained by re-learning using the second density map to detect the n-th image. Afterwards, an abnormal object density map for a given image can be output.

본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.The term '~unit' used in this embodiment refers to software or hardware components such as FPGA (field-programmable gate array) or ASIC, and the '~unit' performs certain roles. However, '~part' is not limited to software or hardware. The '~ part' may be configured to reside in an addressable storage medium and may be configured to reproduce on one or more processors. Therefore, as an example, '~ part' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. The functions provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'. Additionally, components and 'parts' may be implemented to regenerate one or more CPUs within a device or a secure multimedia card.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the present invention has been described above with reference to preferred embodiments, those skilled in the art may make various modifications and changes to the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that you can do it.

Claims (15)

복수 개체를 포함하는 이미지로부터 생성된 영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성하는 제1특징 추출 유닛;
상기 생성된 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성하는 제2특징 추출 유닛; 및
제1기간 동안 생성된 제1위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성하고, 제2기간 동안에 생성된 제2위치 분포 데이터 및 제2동작 데이터를 상기 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 제어부를 포함하며,
상기 제1기간은 급이 및 급수가 진행되지 않는 기간이고, 상기 제2기간은 급이 및 급수 중 적어도 하나가 진행되는 기간인 이상 개체 검출 장치.
a first feature extraction unit that generates position distribution data indicating the position distribution of the plurality of objects using image data generated from an image including the plurality of objects;
a second feature extraction unit that generates motion data indicating movement of a motion object among the plurality of objects using the generated image data; and
Abnormal entity candidate data representing an abnormal entity candidate is generated by comparing the first location distribution data and the first motion data generated during the first period, and the second position distribution data and the second motion data generated during the second period are It includes a control unit that generates abnormal entity data representing an abnormal entity by comparing it with abnormal entity candidate data,
The first period is a period in which feeding and water supply are not in progress, and the second period is a period in which at least one of feeding and water supply is in progress.
제1항에 있어서.
상기 이상 개체 후보 데이터는 상기 제1 위치 분포 데이터에서 상기 개체의 존재 확률이 있으면서 상기 제1동작 데이터상에서 움직임이 검출되지 않은 블록의 집합을 포함하고,
상기 이상 개체 데이터는 상기 이상 개체 후보 중 상기 제2 위치 분포 데이터에서 상기 개체의 존재 확률이 있으면서 상기 제2동작 데이터상에서 움직임이 검출되지 않은 블록의 집합을 포함하는 이상 개체 검출 장치.
In paragraph 1.
The abnormal entity candidate data includes a set of blocks in which there is a probability of existence of the entity in the first location distribution data and no movement is detected in the first motion data,
The abnormal object data includes a set of blocks among the abnormal object candidates in which there is a probability of existence of the object in the second position distribution data but no movement is detected in the second motion data.
제1항에 있어서,
상기 제어부는 급이 및 급수 타임 테이블 또는 상기 제1 동작 데이터와 상기 제2 동작 데이터를 통하여 상기 제1기간과 상기 제2기간을 구분하는 이상 개체 검출 장치.
According to paragraph 1,
The control unit is an abnormal object detection device that distinguishes the first period and the second period through a feeding and watering time table or the first operation data and the second operation data.
제1항에 있어서,
상기 제어부는 상기 이상 개체 후보 데이터를 이용하여 이상 개체 후보가 검출된 경우 상기 제1기간과 상기 제2기간 사이에 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력하는 이상 개체 검출 장치.
According to paragraph 1,
The control unit outputs a driving command to at least one of a feeder and a waterer between the first period and the second period when an abnormal entity candidate is detected using the abnormal entity candidate data.
제4항에 있어서,
상기 제어부는 상기 이상 개체 후보 데이터를 이용하여 상기 이상 개체 후보가 검출된 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력하는 이상 개체 검출 장치.
According to clause 4,
An abnormal object detection device wherein the control unit uses the abnormal object candidate data to output a driving command to at least one of a feeder and a waterer assigned to an area where the abnormal object candidate is detected.
제4항에 있어서,
상기 제어부는 상기 이상 개체 후보 데이터를 이용하여 상기 이상 개체 후보가 검출된 영역을 제외한 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력하는 이상 개체 검출 장치.
According to clause 4,
The control unit uses the abnormal object candidate data to output a driving command to at least one of a feeder and a waterer assigned to an area excluding the area where the abnormal object candidate was detected.
제1항에 있어서,
상기 제1특징 추출 유닛은 제2기간 동안 생성된 영상 데이터로부터 급이 영역 및 급수 영역중 적어도 하나의 영역을 검출하는 이상 개체 검출 장치.
According to paragraph 1,
An abnormal object detection device wherein the first feature extraction unit detects at least one area of a feeding area and a water supply area from image data generated during a second period.
제7항에 있어서,
상기 제어부는 상기 급이 영역 및 급수 영역 중 적어도 하나의 영역의 너비 변화를 통하여 상기 이상 개체 데이터를 생성하는 이상 개체 검출 장치.
In clause 7,
The control unit generates the abnormal object data through a change in the width of at least one of the feeding area and the water supply area.
제4항 내지 제6항 중 어느 한 항에 있어서,
상기 제어부는 상기 급이기 및 급수기 중 적어도 하나의 높이를 조절하는 구동 명령을 출력하는 이상 개체 검출 장치.
According to any one of claims 4 to 6,
An abnormal object detection device wherein the control unit outputs a driving command to adjust the height of at least one of the feeder and the waterer.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020180083564A 2018-07-18 2018-07-18 Apparatus and method for detecting abnormal object and imaging device comprising the same KR102606062B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180083564A KR102606062B1 (en) 2018-07-18 2018-07-18 Apparatus and method for detecting abnormal object and imaging device comprising the same
PCT/KR2019/008268 WO2020017799A1 (en) 2018-07-18 2019-07-05 Device and method for detecting abnormal object, and imaging device comprising same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180083564A KR102606062B1 (en) 2018-07-18 2018-07-18 Apparatus and method for detecting abnormal object and imaging device comprising the same

Publications (2)

Publication Number Publication Date
KR20200009335A KR20200009335A (en) 2020-01-30
KR102606062B1 true KR102606062B1 (en) 2023-11-24

Family

ID=69164936

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180083564A KR102606062B1 (en) 2018-07-18 2018-07-18 Apparatus and method for detecting abnormal object and imaging device comprising the same

Country Status (2)

Country Link
KR (1) KR102606062B1 (en)
WO (1) WO2020017799A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102522239B1 (en) * 2020-11-19 2023-04-17 인트플로우 주식회사 Apparatus and method for analyzing feeding behavior of livestock based on image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100411655B1 (en) 2000-11-09 2003-12-18 대한제당 주식회사 a system for managing livestock breeding farm using internet and method thereof
KR101445698B1 (en) * 2013-03-27 2014-10-06 한국로봇융합연구원 Real Time Auto Medical Examination Method and Domestic Animal Auto Care System thereof
KR101714976B1 (en) 2016-06-22 2017-03-09 신민준 Apparatus for monitoring a cattle shed based on augmented reality
KR101995755B1 (en) * 2019-03-12 2019-10-01 누리꿈소프트(주) System for predicting domestic animal disease

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100312311B1 (en) * 1998-07-28 2001-12-12 윤종용 Detailed information display method by measurement value trace on graph
KR101098867B1 (en) * 2009-06-22 2011-12-26 순천대학교 산학협력단 System for providing stable management and method therefor
JP5771039B2 (en) * 2011-03-30 2015-08-26 セコム株式会社 Abandoned person detection device
JP2015069253A (en) * 2013-09-27 2015-04-13 株式会社リコー Individual condition determination device, individual condition determination method, and individual condition determination program
KR20150080863A (en) * 2014-01-02 2015-07-10 삼성테크윈 주식회사 Apparatus and method for providing heatmap
KR20160078089A (en) * 2014-12-24 2016-07-04 고려대학교 산학협력단 Detection method for abnormal object on farm, managing method and system for the same
KR101768450B1 (en) * 2015-04-30 2017-08-17 건국대학교 글로컬산학협력단 Method for determining health of livestock using thermal imaging
KR20200002314A (en) * 2018-06-29 2020-01-08 엘지이노텍 주식회사 System, terminal and method for managing farm environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100411655B1 (en) 2000-11-09 2003-12-18 대한제당 주식회사 a system for managing livestock breeding farm using internet and method thereof
KR101445698B1 (en) * 2013-03-27 2014-10-06 한국로봇융합연구원 Real Time Auto Medical Examination Method and Domestic Animal Auto Care System thereof
KR101714976B1 (en) 2016-06-22 2017-03-09 신민준 Apparatus for monitoring a cattle shed based on augmented reality
KR101995755B1 (en) * 2019-03-12 2019-10-01 누리꿈소프트(주) System for predicting domestic animal disease

Also Published As

Publication number Publication date
WO2020017799A1 (en) 2020-01-23
KR20200009335A (en) 2020-01-30

Similar Documents

Publication Publication Date Title
CN111225558B (en) Long-term and continuous animal behavior monitoring
US11350610B2 (en) Rearing place management device and method
JP2017146957A (en) Augmenting layer-based object detection with deep convolutional neural networks
KR101944374B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
US12014541B2 (en) Device for managing environment of breeding farm
KR102615986B1 (en) Apparatus and method for determining abnormal object
KR102609461B1 (en) Imaging device, apparatus and method for managing of fowl comprising the same
JP6989294B2 (en) Monitoring system and monitoring method
US20200234079A1 (en) Methods and systems for processing image data
KR20200002315A (en) System, terminal and method for managing farm environment
KR20200002314A (en) System, terminal and method for managing farm environment
KR20200139616A (en) Apparatus and method for detecting abnormal objects
KR20200009530A (en) System and method for detecting abnormal object
KR102505691B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR102606062B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR102349851B1 (en) System and method for providing multi-object recognition service using camera for pet
KR102424098B1 (en) Drone detection apparatus using deep learning and method thereof
KR102492066B1 (en) Mobile preventive warning system
KR102307609B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR20190113360A (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR20230123226A (en) Noise Reduction of Surveillance Camera Image Using Object Detection Based on Artificial Intelligence
KR102609804B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR102619829B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR20190114529A (en) System and method for detecting abnormal object
KR20190113361A (en) Apparatus, system and method for detecting abnormal object, and imaging device comprising the same

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant