KR102606062B1 - Apparatus and method for detecting abnormal object and imaging device comprising the same - Google Patents
Apparatus and method for detecting abnormal object and imaging device comprising the same Download PDFInfo
- Publication number
- KR102606062B1 KR102606062B1 KR1020180083564A KR20180083564A KR102606062B1 KR 102606062 B1 KR102606062 B1 KR 102606062B1 KR 1020180083564 A KR1020180083564 A KR 1020180083564A KR 20180083564 A KR20180083564 A KR 20180083564A KR 102606062 B1 KR102606062 B1 KR 102606062B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- abnormal
- motion
- image data
- period
- Prior art date
Links
- 230000002159 abnormal effect Effects 0.000 title claims abstract description 402
- 238000000034 method Methods 0.000 title description 68
- 238000003384 imaging method Methods 0.000 title description 59
- 230000033001 locomotion Effects 0.000 claims abstract description 384
- 238000009826 distribution Methods 0.000 claims abstract description 196
- 238000000605 extraction Methods 0.000 claims abstract description 122
- 238000001514 detection method Methods 0.000 claims description 158
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 8
- 238000009395 breeding Methods 0.000 description 61
- 230000001488 breeding effect Effects 0.000 description 61
- 238000004891 communication Methods 0.000 description 37
- 244000144972 livestock Species 0.000 description 21
- 230000003287 optical effect Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 239000000284 extract Substances 0.000 description 16
- 230000008569 process Effects 0.000 description 15
- 238000012549 training Methods 0.000 description 15
- 239000013598 vector Substances 0.000 description 15
- 241001465754 Metazoa Species 0.000 description 14
- 238000013480 data collection Methods 0.000 description 13
- 201000010099 disease Diseases 0.000 description 13
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 13
- 238000004378 air conditioning Methods 0.000 description 12
- 244000144977 poultry Species 0.000 description 12
- 235000013594 poultry meat Nutrition 0.000 description 12
- 230000000694 effects Effects 0.000 description 11
- 230000005856 abnormality Effects 0.000 description 10
- 230000001186 cumulative effect Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 8
- 238000011410 subtraction method Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 239000004065 semiconductor Substances 0.000 description 6
- 241000287828 Gallus gallus Species 0.000 description 5
- 235000013330 chicken meat Nutrition 0.000 description 5
- 238000009825 accumulation Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000009529 body temperature measurement Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 239000002184 metal Substances 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000272517 Anseriformes Species 0.000 description 1
- 241000283690 Bos taurus Species 0.000 description 1
- 208000035473 Communicable disease Diseases 0.000 description 1
- 241000237858 Gastropoda Species 0.000 description 1
- 206010037660 Pyrexia Diseases 0.000 description 1
- 241000282887 Suidae Species 0.000 description 1
- 239000012190 activator Substances 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 239000003574 free electron Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005036 potential barrier Methods 0.000 description 1
- 230000035935 pregnancy Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K29/00—Other apparatus for animal husbandry
- A01K29/005—Monitoring or measuring activity, e.g. detecting heat or mating
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K29/00—Other apparatus for animal husbandry
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K39/00—Feeding or drinking appliances for poultry or other birds
- A01K39/04—Combined feeding and drinking appliances, e.g. also for batteries
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K5/00—Feeding devices for stock or game ; Feeding wagons; Feeding stacks
- A01K5/01—Feed troughs; Feed pails
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K5/00—Feeding devices for stock or game ; Feeding wagons; Feeding stacks
- A01K5/02—Automatic devices
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K5/00—Feeding devices for stock or game ; Feeding wagons; Feeding stacks
- A01K5/02—Automatic devices
- A01K5/0291—Automatic devices with timing mechanisms, e.g. pet feeders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Life Sciences & Earth Sciences (AREA)
- Environmental Sciences (AREA)
- Engineering & Computer Science (AREA)
- Biodiversity & Conservation Biology (AREA)
- Animal Husbandry (AREA)
- Birds (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
Abstract
본 발명의 실시예에 따르면, 복수 개체를 포함하는 이미지로부터 생성된 영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성하는 제1특징 추출 유닛; 상기 생성된 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성하는 제2특징 추출 유닛; 및 제1기간 동안 생성된 제1위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성하고, 제2기간 동안에 생성된 제2위치 분포 데이터 및 제2동작 데이터를 상기 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 제어부를 포함하며, 상기 제1기간은 급이 및 급수가 진행되지 않는 기간이고, 상기 제2기간은 급이 및 급수 중 적어도 하나가 진행되는 기간인 이상 개체 검출 장치를 제공한다.According to an embodiment of the present invention, a first feature extraction unit for generating position distribution data indicating the position distribution of the plurality of objects using image data generated from an image including the plurality of objects; a second feature extraction unit that generates motion data indicating movement of a motion object among the plurality of objects using the generated image data; and generate abnormal object candidate data representing an abnormal object candidate by comparing the first position distribution data and the first motion data generated during the first period, and the second position distribution data and the second motion data generated during the second period. and a control unit that compares the abnormal entity candidate data and generates abnormal entity data indicating an abnormal entity, wherein the first period is a period in which feeding and watering are not performed, and the second period is at least one of feeding and watering. Provides a device for detecting abnormal objects during which one is in progress.
Description
본 발명의 실시예는 이상 개체 검출 장치 및 방법, 이를 포함하는 촬상 장치에 관한 것이다.Embodiments of the present invention relate to an abnormal object detection device and method, and an imaging device including the same.
축산물에 대한 소비가 늘어나면서, 가축을 효율적으로 관리하는 방법에 대한 다양한 방안들이 제안되고 있다.As consumption of livestock products increases, various ways to manage livestock efficiently are being proposed.
종래에는 사람이 각각의 가축의 상태를 파악하여, 이상 징후가 나타나는 가축에 대하여 진료를 받게 하거나 따로 격리시켰다. 다만, 가축의 수가 많은 경우 모든 가축을 관리하기 위해서는 많은 인력이 필요하다는 문제점이 있었다.Conventionally, people would check the condition of each livestock, and receive medical treatment or isolate livestock that showed abnormal signs. However, when the number of livestock is large, there is a problem that a lot of manpower is needed to manage all the livestock.
또한, 일부 가축에 전염병이 발생하면 가축의 대부분이 폐사하는 결과가 초래될 수 있으므로, 가축의 이상 여부를 빠르고 정확하게 판단할 수 있는 방안이 요구되고 있다.In addition, if an infectious disease occurs in some livestock, it may result in the death of most of the livestock, so there is a need for a method to quickly and accurately determine whether there is an abnormality in the livestock.
또한, 교통 수단의 발달로 인하여 특정 지역에서 발생된 질병은 특정한 장소에 한정되지 않고 전국적으로 빠른 시간 내에 전염되는 현실에서 초기에 빠른 질병 판단이 요구되고 있다. 가축의 질병 판단에 있어서 발열에 따른 온도측정 방식이 질병 유무 판단의 기준으로 활용되고 있다. 그러나 많은 가축에 대한 일률적인 온도측정이 이루어지기 때문에, 가축 개체 각각의 상태에 따른 질병 판단에 대한 어려움이 있다. 또한, 이러한 온도 측정에 의한 질병 판단 방식은 질병 발생 초기 단계에 개체를 검출하는데에 어려움이 있다.In addition, due to the development of means of transportation, diseases that occur in a specific region are not limited to a specific location and are spread nationwide in a short period of time, so quick disease diagnosis is required at an early stage. In determining disease in livestock, the temperature measurement method based on fever is used as a standard for determining the presence or absence of disease. However, because uniform temperature measurements are made for many livestock, there is difficulty in determining disease according to the condition of each livestock individual. In addition, this method of determining disease based on temperature measurement has difficulty detecting individuals in the early stages of disease occurrence.
본 발명이 이루고자 하는 기술적 과제는 사육장 내부를 촬영한 영상 데이터 상에서 질병에 걸린 가능성이 높은 개체를 검출할 수 있는 이상 개체 검출 장치 및 방법, 이를 포함하는 촬상 장치를 제공하는데 있다.The technical problem to be achieved by the present invention is to provide an abnormal object detection device and method capable of detecting objects likely to have a disease from image data captured inside a breeding farm, and an imaging device including the same.
본 발명의 실시예에 따르면, 복수 개체를 포함하는 이미지로부터 생성된 영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성하는 제1특징 추출 유닛; 상기 생성된 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성하는 제2특징 추출 유닛; 및 제1기간 동안 생성된 제1위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성하고, 제2기간 동안에 생성된 제2위치 분포 데이터 및 제2동작 데이터를 상기 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 제어부를 포함하며, 상기 제1기간은 급이 및 급수가 진행되지 않는 기간이고, 상기 제2기간은 급이 및 급수 중 적어도 하나가 진행되는 기간인 이상 개체 검출 장치를 제공한다.According to an embodiment of the present invention, a first feature extraction unit for generating position distribution data indicating the position distribution of the plurality of objects using image data generated from an image including the plurality of objects; a second feature extraction unit that generates motion data indicating movement of a motion object among the plurality of objects using the generated image data; and generate abnormal object candidate data representing an abnormal object candidate by comparing the first position distribution data and the first motion data generated during the first period, and the second position distribution data and the second motion data generated during the second period. and a control unit that compares the abnormal entity candidate data and generates abnormal entity data indicating an abnormal entity, wherein the first period is a period in which feeding and watering are not performed, and the second period is at least one of feeding and watering. Provides a device for detecting abnormal objects during which one is in progress.
상기 위치 분포 데이터는 상기 영상 데이터에서 블록별로 개체의 존재 여부가 확률로서 표시된 데이터를 포함하고, 상기 동작 데이터는 상기 영상 데이터에서 블록별로 움직임 존재 여부가 표시된 데이터를 포함할 수 있다.The position distribution data may include data indicating the presence or absence of an object as a probability for each block in the image data, and the motion data may include data indicating the presence or absence of motion for each block in the image data.
상기 이상 개체 후보 데이터는 상기 제1 위치 분포 데이터에서 상기 개체의 존재 확률이 있으면서 상기 제1동작 데이터상에서 움직임이 검출되지 않은 블록의 집합을 포함할 수 있다.The abnormal entity candidate data may include a set of blocks in which there is a probability of existence of the entity in the first location distribution data but no movement is detected in the first motion data.
상기 이상 개체 데이터는 상기 이상 개체 후보 중 상기 제2 위치 분포 데이터에서 상기 개체의 존재 확률이 있으면서 상기 제2동작 데이터상에서 움직임이 검출되지 않은 블록의 집합을 포함할 수 있다.The abnormal entity data may include a set of blocks among the abnormal entity candidates in which there is a probability of existence of the entity in the second location distribution data but no movement is detected in the second motion data.
상기 제어부는 기 저장된 급이 및 급수 타임 테이블을 통하여 상기 제1기간과 상기 제2기간을 구분할 수 있다.The control unit may distinguish the first period and the second period through a pre-stored feeding and water supply time table.
상기 제어부는 외부로부터 급이 및 급수 타임 테이블을 수신하여 상기 제1기간과 상기 제2기간을 구분할 수 있다.The control unit may receive a feeding and watering time table from the outside and distinguish between the first period and the second period.
상기 제어부는 상기 제1 동작 데이터와 상기 제2 동작 데이터를 이용하여 상기 제1기간과 상기 제2기간을 구분할 수 있다.The control unit may distinguish between the first period and the second period using the first operation data and the second operation data.
상기 제어부는 상기 이상 개체 후보 데이터를 이용하여 이상 개체 후보가 검출된 경우 상기 제1기간과 상기 제2기간 사이에 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력할 수 있다.When an abnormal entity candidate is detected using the abnormal entity candidate data, the control unit may output a driving command to at least one of the feeder and the waterer between the first period and the second period.
상기 제어부는 상기 이상 개체 후보 데이터를 이용하여 상기 이상 개체 후보가 검출된 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력할 수 있다.The control unit may use the abnormal entity candidate data to output a driving command to at least one of the feeder and waterer assigned to the area where the abnormal entity candidate was detected.
상기 제어부는 상기 이상 개체 후보 데이터를 이용하여 상기 이상 개체 후보가 검출된 영역을 제외한 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력할 수 있다.The control unit may use the abnormal entity candidate data to output a driving command to at least one of the feeder and waterer assigned to an area excluding the area where the abnormal entity candidate was detected.
상기 제1특징 추출 유닛은 제2기간 동안 생성된 영상 데이터로부터 급이 영역 및 급수 영역중 적어도 하나의 영역을 검출할 수 있다.The first feature extraction unit may detect at least one of the feeding area and the water supply area from the image data generated during the second period.
상기 제어부는 상기 급이 영역 및 급수 영역 중 적어도 하나의 영역의 너비 변화를 통하여 상기 이상 개체 데이터를 생성할 수 있다.The control unit may generate the abnormal entity data through a change in the width of at least one of the feeding area and the water supply area.
상기 제어부는 상기 급이기 및 급수기 중 적어도 하나의 높이를 조절하는 구동 명령을 출력할 수 있다.The control unit may output a drive command to adjust the height of at least one of the feeder and the waterer.
본 발명의 실시예에 따르면, 복수 개체를 포함하는 이미지를 촬영하여 영상 데이터를 생성하는 촬영부; 상기 영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성하는 제1특징 추출 유닛; 상기 생성된 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성하는 제2특징 추출 유닛; 및 제1기간 동안 생성된 제1위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성하고, 제2기간 동안 생성된 제2위치 분포 데이터 및 제2동작 데이터를 상기 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 제어부를 포함하며, 상기 제1기간은 급이 및 급수가 진행되지 않는 기간이고, 상기 제2기간은 급이 및 급수 중 적어도 하나가 진행되는 기간인 촬상 장치를 제공한다.According to an embodiment of the present invention, a photographing unit for generating image data by photographing an image including a plurality of objects; a first feature extraction unit that generates position distribution data indicating the position distribution of the plurality of objects using the image data; a second feature extraction unit that generates motion data indicating movement of a motion object among the plurality of objects using the generated image data; and generate abnormal object candidate data representing an abnormal object candidate by comparing the first position distribution data and the first motion data generated during the first period, and the second position distribution data and the second motion data generated during the second period. and a control unit that compares the abnormal entity candidate data and generates abnormal entity data indicating an abnormal entity, wherein the first period is a period in which feeding and watering are not performed, and the second period is at least one of feeding and watering. One provides an imaging device, a period of time in progress.
본 발명의 실시예에 따르면, 제1기간 동안 복수 개체를 포함하는 이미지를 촬영하여 제1영상 데이터를 생성하는 단계; 상기 제1영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성하는 단계; 상기 제1영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성하는 단계; 상기 제1 위치 분포 데이터 및 상기 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성하는 단계; 제2기간 동안 복수 개체를 포함하는 이미지를 촬영하여 제2영상 데이터를 생성하는 단계; 상기 제2 영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성하는 단계; 상기 제2 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 제2동작 데이터를 생성하는 단계; 및 상기 제2 위치 분포 데이터 및 상기 제2동작 데이터를 상기 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 단계를 포함하며, 상기 제1기간은 급이 및 급수가 진행되지 않는 기간이고, 상기 제2기간은 급이 및 급수 중 적어도 하나가 진행되는 기간인 이상 개체 검출 방법을 제공한다.According to an embodiment of the present invention, generating first image data by photographing an image including a plurality of objects during a first period of time; generating first position distribution data representing the position distribution of the plurality of objects using the first image data; generating first motion data representing movement of a motion object among the plurality of objects using the first image data; generating abnormal entity candidate data representing an abnormal entity candidate by comparing the first location distribution data and the first motion data; generating second image data by photographing images including a plurality of objects during a second period; generating second position distribution data representing the position distribution of the plurality of objects using the second image data; generating second motion data representing movement of a motion object among the plurality of objects using the second image data; and generating abnormal entity data representing an abnormal entity by comparing the second position distribution data and the second motion data with the abnormal entity candidate data, wherein the first period is when feeding and watering are not in progress. It is a period, and the second period is a period in which at least one of feeding and water supply is in progress.
본 발명인 이상 개체 검출 장치 및 방법, 이를 포함하는 촬상 장치는 사육장 내부를 촬영한 영상데이터 상에서 질병에 걸린 가능성이 높은 이상 개체를 검출할 수 있다.The present inventors' abnormal object detection device and method, and an imaging device including the same, can detect abnormal objects that are highly likely to have a disease on image data captured inside a breeding farm.
또한, 이상 개체와 정상 개체를 시각적으로 구분하여 표시할 수 있다.Additionally, abnormal objects and normal objects can be visually distinguished and displayed.
또한, 이상 개체를 추적하여 감시할 수 있다.Additionally, abnormal objects can be tracked and monitored.
또한, 이상 개체 발생시 관리자에게 알림 또는 경고를 송출할 수 있다.Additionally, when an abnormal object occurs, a notification or warning can be sent to the administrator.
또한, 분석 데이터의 연산량을 감소시키고, 연산 속도를 향상시킬 수 있다.Additionally, the amount of calculation of analysis data can be reduced and calculation speed can be improved.
또한, 픽셀별 또는 특정 영역별로 개체, 개체의 머리 또는 몸통의 존재 확률을 검출하고, 움직임 검출 결과와 비교하여 이상 개체를 검출함으로써 특정 개체를 트래킹하는 방식에 비하여 연산량, 속도, 정확도면에서 향상된 효과를 기대할 수 있다.In addition, it detects the probability of existence of an object or its head or body for each pixel or specific area, and compares it with the motion detection result to detect abnormal objects, thereby improving the amount of calculation, speed, and accuracy compared to the method of tracking a specific object. can be expected.
도1은 본 발명의 실시예에 따른 사육장의 개념도이다.
도2는 본 발명의 실시예에 따른 촬상 장치의 블록도이다.
도3은 기존 방식에 따른 이상 개체 검출 방식을 설명하기 위한 도면이다.
도4는 본 발명의 실시예에 따른 이상 개체 검출 장치의 동작을 설명하기 위한 도면이다.
도5 내지 10은 본 발명의 실시예에 따른 이상 개체 검출 방법의 순서도이다.
도11은 본 발명의 실시예에 따른 학습용 서버의 구성 개념도이다.
도12 내지 도15는 본 발명의 실시예에 따른 이상 개체 검출 장치의 동작을 설명하기 위한 도면이다.
도16 내지 도17은 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다.Figure 1 is a conceptual diagram of a breeding farm according to an embodiment of the present invention.
Figure 2 is a block diagram of an imaging device according to an embodiment of the present invention.
Figure 3 is a diagram for explaining an abnormal object detection method according to an existing method.
Figure 4 is a diagram for explaining the operation of an abnormal object detection device according to an embodiment of the present invention.
5 to 10 are flowcharts of a method for detecting abnormal entities according to an embodiment of the present invention.
Figure 11 is a conceptual diagram of the configuration of a learning server according to an embodiment of the present invention.
12 to 15 are diagrams for explaining the operation of an abnormal object detection device according to an embodiment of the present invention.
Figures 16 and 17 are diagrams for explaining the operation of the control unit according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.However, the technical idea of the present invention is not limited to some of the described embodiments, but may be implemented in various different forms, and as long as it is within the scope of the technical idea of the present invention, one or more of the components may be optionally used between the embodiments. It can be used by combining and replacing.
또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention, unless explicitly specifically defined and described, are generally understood by those skilled in the art to which the present invention pertains. It can be interpreted as meaning, and the meaning of commonly used terms, such as terms defined in a dictionary, can be interpreted by considering the contextual meaning of the related technology.
또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다.Additionally, the terms used in the embodiments of the present invention are for describing the embodiments and are not intended to limit the present invention.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.In this specification, the singular may also include the plural unless specifically stated in the phrase, and when described as "at least one (or more than one) of A and B and C", it is combined with A, B, and C. It can contain one or more of all possible combinations.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.Additionally, when describing the components of an embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used.
이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.These terms are only used to distinguish the component from other components, and are not limited to the essence, sequence, or order of the component.
그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속' 되는 경우도 포함할 수 있다.And, when a component is described as being 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected, coupled or connected to that other component, but also is connected to that component. It can also include cases where other components are 'connected', 'combined', or 'connected' due to another component between them.
또한, 각 구성 요소의 "상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위) 또는 하(아래)"으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다.Additionally, when described as being formed or disposed "above" or "below" each component, "above" or "below" refers not only to cases where two components are in direct contact with each other, but also to one This also includes cases where another component described above is formed or placed between two components. In addition, when expressed as "top (above) or bottom (bottom)", it may include not only the upward direction but also the downward direction based on one component.
도 1은 본 발명의 실시예에 따른 사육장의 개념도이고, 도 2는 본 발명의 실시예에 따른 촬상 장치의 블록도이다. Figure 1 is a conceptual diagram of a breeding farm according to an embodiment of the present invention, and Figure 2 is a block diagram of an imaging device according to an embodiment of the present invention.
도 1 내지 2를 참조하면, 먼저 사육장(10)은 가축을 사육하는 축사를 의미한다. 가축은 닭, 오리 등의 가금류뿐만 아니라, 소, 돼지 등 축사 내에서 집단으로 사육되는 다양한 종류의 동물일 수 있다.Referring to Figures 1 and 2, first, the
촬상 장치(100)는 사육장(10) 내의 환경을 검출하고, 이를 관리 서버(200) 및 공조 장치(300) 중 적어도 하나에 전송할 수 있다. 이를 위하여, 촬상 장치(100)는 관리 서버(200) 및 공조 장치(300)와 유선 또는 무선으로 통신할 수 있다. 여기서, 촬상 장치(100)가 관리 서버(200) 및 공조 장치(300)와 각각 통신하는 것으로 도시되어 있으나, 이로 제한되지 않으며, 촬상 장치(100)가 관리 서버(200)와 통신하고, 관리 서버(200)가 공조 장치(300)와 통신할 수도 있다. The
사육장(10) 내에는 복수개의 촬상 장치가 배치될 수 있다. 촬상 장치(100)는 촬영부(111)에서 촬영한 영상 데이터를 관리 서버(200)로 전송할 수 있다. 또는, 사육장(10)내에는 별도의 데이터 수집장치(150)가 배치되어 복수개의 촬상 장치(100)로부터 영상 데이터를 수집하여 관리 서버(200)로 전송할 수 있다. 사육장(10) 내부의 상태를 정밀하게 분석하기 위하여 촬상 장치(100)의 영상 데이터는 고화질, 고용량의 특성을 가질 수 있다. 따라서, 복수개의 촬상 장치(100)에서 촬영된 영상 데이터를 실시간으로 원격의 관리 서버(200)로 전송하기 위하여서는 큰 대역폭이 요구될 수 있으며, 이에 따라 전송 속도가 저하될수 있다. 따라서, 별도의 데이터 수집장치(150)에서는 사육장(10)내의 촬상 장치(100)로부터 영상 데이터를 수집하여 인코딩 한 후 관리 서버(200)로 전송함으로써 통신 대역폭을 저감시키고, 전송 속도를 향상시킬 수 있다. 또는 촬상 장치(100)는 영상 데이터를 이용하여 사육장(10)상태를 분석하기 위한 1차 분석을 수행한 후, 가공된 데이터를 데이터 수집장치에 전달하거나 또는 관리 서버(200)에 전송할 수 있다. 즉, 촬상 장치(100)는 사육장(10)의 상태 분석을 위하여 필요한 데이터만을 선별하여 데이터 수집장치(150)에 전달하거나 또는 관리 서버(200)에 전송함으로써 통신 자원을 효율적으로 관리할 수 있다. 또는 촬상 장치(100)는 사육장(10)을 촬영한 영상 데이터를 이용하여 사육장(10) 내부 상태를 1차적으로 분석하여 그 결과를 데이터 수집장치(150)에 전달하거나 또는 관리 서버(200)에 전송할 수 있다.A plurality of imaging devices may be disposed within the breeding
관리 서버(200)는 퍼스널 컴퓨터(personal computer, PC), 태블릿 PC, 휴대단말 등을 포함하는 서버일 수 있다. 촬상 장치(100)가 관리 서버(200)에게 사육장(10) 내의 환경을 전송하는 경우, 관리자는 관리 서버(200)에 출력된 화면 등을 통하여 사육장(10) 내의 환경을 인지할 수 있다. 예를 들어, 촬상 장치(100)가 사육장(10) 내의 이상상황을 포착하여 이를 관리 서버(200)에게 전송한 경우, 관리자는 관리 서버(200)에 출력된 화면을 통하여 사육장(10) 내에 이상상황이 발생하였음을 인지할 수 있으며, 이상상황에 대하여 초기에 대응할 수 있다. 여기서, 이상상황은, 예를 들어 질병에 걸린 가축의 발생, 가축의 임신, 가축의 생장 기간, 사육장(10) 내 습도, 온도, 특정 분자의 농도 이상 등일 수 있다. The management server 200 may be a server including a personal computer (PC), tablet PC, mobile terminal, etc. When the
관리 서버(200)가 복수의 사육장(10)으로부터 정보를 전송 받는 중앙 서버일 경우에 관리자는 관리 서버(200)와이 접근성이 용이 하지 않을 수 있다. 이런 경우 관리 서버(200)는 별도의 관리자의 휴대단말 등을 통하여 사육장(10) 내에 이상상황에 대한 정보를 전달 할 수 있다.If the management server 200 is a central server that receives information from a plurality of breeding farms 10, the manager may not have easy accessibility to the management server 200. In this case, the management server 200 can transmit information about an abnormal situation within the breeding
또한, 관리 서버(200)는 촬상 장치(100) 또는 데이터 수집장치(150)에서 전송한 데이터를 이용하여 사육장 상태를 분석할 수 있다. 예를 들면, 관리 서버(100)는 복수개의 촬상 장치(100) 또는 데이터 수집장치(150)에서 1차적으로 가공된 데이터를 수신하여 사육장 상태에 대한 보다 정밀한 분석을 수행할 수 있다. 관리 서버(200)는 촬상 장치(100)의 통신부(115)와 데이터 통신을 수행하거나 또는 데이터 수집장치(150)에 장착된 통신 모듈(미도시)과 데이터 통신을 수행할 수 있다. 관리 서버(200)는 촬상 장치(100)에서 촬영한 원본 영상과 1차적으로 가공된 가공 영상 데이터를 수신할 수 있다. 이 때, 가공 영상 데이터는 사육장 관리 장치(100) 또는 촬상 장치(100)에서 원본 영상에 대하여 1차적인 분석을 수행하고, 이를 인코딩한 데이터를 의미할 수 있다.Additionally, the management server 200 may analyze the condition of the breeding farm using data transmitted from the
공조 장치(300)는 사육장(10)의 온도를 조절하는 장치이다. 촬상 장치(100)가 사육장(10) 내 온도이상을 포착하여 관리 서버(200)에게 전송한 경우, 관리자는 관리 서버(200)에 출력된 화면을 통하여 사육장(10) 내 온도이상이 발생하였음을 인지할 수 있으며, 공조 장치(300)를 제어하여 사육장(10) 내 온도를 정상화할 수 있다. 또는, 촬상 장치(100)가 사육장(10) 내 온도이상을 검출하여 공조 장치(300)에게 직접 전달한 경우, 공조 장치(300)가 직접 사육장(10) 내 온도를 정상화할 수도 있다. 예를 들어, 사육장(10) 내의 온도가 가축이 생활하기에 적절한 온도보다 낮거나, 높은 경우, 가축들의 움직임이 둔화되는 경향이 있다. 이에 따라, 촬상 장치(100), 관리 서버(200), 또는 공조 장치(300)는 사육장(10) 내 온도이상을 검출하여 사육장(10) 내 온도를 정상화할 수 있다. The
공조 장치(300)는 사육장(10)의 습도를 조절할 수 있다. 사육장(10) 내의 습도 이상이 발생한 경우, 공조 장치(300)를 제어하여 사육장(10) 내 습도를 정상화할 수 있다.The
촬상 장치(100)는 촬영부(111), 제1특징 추출 유닛(112), 제2특징 추출 유닛(113), 제어부(114), 통신부(115), 표시부(116), 유저 인터페이스부(117), 인코딩부(118), 데이터 베이스(119), 조도 센서(120), 광원부(121), 팬틸트부(122)를 포함한다. 본 발명의 실시예에서는 제1특징 추출 유닛(112), 제2특징 추출 유닛(113), 제어부(114), 통신부(115)를 포함하는 이상 개체 검출 장치가 촬상 장치(100)에 포함되어 구성되는 것으로 도시하였다. 그러나, 이상 개체 검출 장치는 별도의 모듈 형태로 제작되어 데이터 수집장치(150) 또는 관리 서버(200)에 포함되어 구성될 수 있다. 또는, 이상 개체 검출 장치는 별도의 디바이스 형태로 독립된 제품으로 실시될 수 있다. 이상 개체 검출 장치가 촬상 장치(100)와 별도의 모듈 또는 디바이스 형태로 적용되는 경우 이상 개체 검출 장치는 통신부(115)를 통하여 촬상 장치(100)로부터 영상 데이터를 수신할 수 있다. 또한, 제1특징 추출 유닛 및 제2특징 추출 유닛은 제어부에 포함되어 하나의 프로세서로 구현될 수 있다. 본 발명의 실시예에서는 설명의 편의를 위하여 제1특징 추출 유닛, 제2특징 추출 유닛, 제어부의 기능을 나누어 설명하기로 한다.The
이하에서는, 이상 개체 검출 장치가 촬상 장치(100)내에 포함되어 있음을 예로 들어 설명하기로 한다.Hereinafter, it will be explained by taking as an example that the abnormal object detection device is included in the
촬상 장치(100)는 사육장(10)내에 복수개가 설치될 수 있다. 예를 들어, 촬상 장치(100)는 사육장(10)의 상부에 배치된 적어도 하나의 상부 촬상 장치 및 사육장의 측부에 배치된 적어도 하나의 측부 촬상 장치를 포함할 수 있다. 상부 촬상 장치 및 측부 촬상 장치 각각은 유선 또는 무선으로 통신이 가능하여 실시간 영상의 송출이 가능한 IP 카메라일 수 있다. 본 실시예에서는 사육장 상부에 하나의 촬상 장치(100)가 배치되어 있는 것을 예로 들어 설명하기로 한다.A plurality of
또한, 본 발명의 실시예에서 복수 개체는 사육장 내부에서 사육되는 가금류를 의미할 수 있다.Additionally, in an embodiment of the present invention, a plurality of individuals may refer to poultry raised inside a breeding farm.
촬영부(111)는 순차적으로 촬영되는 복수개의 이미지를 이용하여 복수개의 영상 데이터를 생성할 수 있다. 예를 들면, 촬영부(111)는 복수의 블록을 포함하는 제1이미지를 촬영하여 제1영상 데이터를 생성할 수 있으며, 복수의 블록을 포함하는 제2이미지를 촬영하여 제2영상 데이터를 생성할 수 있다. 제1이미지 및 제2이미지는 시간상으로 연속적으로 촬영된 이미지일 수 있으며, 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 촬영부(111)는 순차적으로 촬영되는 제1이미지 및 제2이미지를 이용하여 제1영상 데이터 및 제2영상 데이터를 생성할 수 있다.The photographing
촬영부(111)는 제1기간동안 촬영되는 이미지를 이용하여 영상 데이터를 생성하고, 제2기간 동안 촬영되는 이미지를 이용하여 영상 데이터를 생성할 수 있다. 이 때, 촬영부(111)는 제1기간 동안 순차적으로 촬영되는 복수개의 이미지를 이용하여 복수개의 영상 데이터를 생성하고, 제2기간 동안 순차적으로 촬영되는 복수개의 이미지를 이용하여 복수개의 영상 데이터를 생성할 수 있다. 또한, 촬영부(111)는 제3기간동안 촬영되는 이미지를 이용하여 영상데이터를 생성할 수 있다. The capturing
본 발명의 실시예에서, 제1기간은 급이 및 급수가 진행되지 않는 기간이고, 제2기간은 급이 및 급수 중 적어도 하나가 진행되는 기간을 의미할 수 있다. In an embodiment of the present invention, the first period may mean a period in which feeding and watering are not in progress, and the second period may mean a period in which at least one of feeding and watering is in progress.
본 발명의 실시예에서 제1기간동안 촬영되는 이미지를 이용하여 생성되는 영상 데이터를 제1영상데이터라 하고, 제2기간동안 촬영되는 이미지를 이용하여 생성되는 영상 데이터를 제2영상 데이터로 정의한다. 제1영상 데이터와 제2영상 데이터는 단일 영상 데이터이거나 또는 복수개의 영상 데이터를 의미할 수 있다.In an embodiment of the present invention, image data generated using images captured during a first period are defined as first image data, and image data created using images captured during a second period are defined as second image data. . The first image data and the second image data may mean single image data or a plurality of image data.
이미지 센서는 CMOS(complementary metal-oxide semiconductor) 모듈 또는 CCD(charge coupled device) 모듈 등을 이용하여 피사체를 촬영하는 이미지 센서일 수 있다. 이때, 입력되는 영상 프레임은 렌즈를 통해 촬영부(111) 내의 COMS 모듈 또는 CCD 모듈로 제공되고, COMS 모듈 또는 CCD 모듈은 렌즈를 통과한 피사체의 광신호를 전기적 신호(영상 데이터)로 변환하여 출력한다. The image sensor may be an image sensor that photographs a subject using a complementary metal-oxide semiconductor (CMOS) module or a charge coupled device (CCD) module. At this time, the input image frame is provided to the COMS module or CCD module in the photographing
촬영부(111)는 시야각이 넓은 어안렌즈 또는 광각렌즈를 포함할 수 있다. 이에 따라, 하나의 촬상 장치(100)가 사육장(10) 내부의 전체 공간을 촬영하는 것이 가능하다. The photographing
또한, 촬영부(111)는 깊이 카메라일 수 있다. 촬영부(111)는 다양한 깊이 인식 방식 중 어느 하나의 방식으로 구동될 수 있으며, 촬영부(111)를 통하여 촬영된 영상에는 깊이 정보가 포함될 수 있다. 촬영부(111)는 예를 들어, 키넥트 센서일 수 있다. 키넥트 센서는 구조광 투영 방식의 깊이 카메라로서, 프로젝터나 레이저를 이용하여 정의된 패턴 영상을 투영시키고 카메라를 통하여 패턴이 투영된 영상을 획득함으로써 장면의 삼차원 정보를 획득할 수 있다. 이러한 키넥트 센서는 적외선 레이저를 이용해 패턴을 조사하는 적외선 방사체, 및 적외선 영상을 촬영하는 적외선 카메라를 포함하며, 일반적인 웹캠과 같은 기능을 하는 RGB 카메라가 적외선 방사체와 적외선 카메라 사이에 배치되어 있다. 이 외에도, 키넥트 센서에는 마이크 배열과 카메라의 각도를 조절하는 팬틸트부(122)가 더 구성될 수 있다.Additionally, the
키넥트 센서의 기본적인 원리는, 적외선 방사체에서 조사된 레이저 패턴이 물체에 투영되어 반사되면, 반사 지점에서의 패턴의 위치 및 크기를 이용해 물체 표면까지의 거리를 구하게 된다. 이러한 원리에 따라, 촬영부(111)는 사육장 내 공간으로 레이저 패턴을 조사하고, 개체에서 반사된 레이저 패턴을 센싱하여 개체 별 깊이 정보를 포함하는 영상 데이터를 생성할 수 있다.The basic principle of the Kinect sensor is that when a laser pattern emitted from an infrared emitter is projected and reflected on an object, the distance to the object surface is calculated using the position and size of the pattern at the reflection point. According to this principle, the
실시예에서 영상 데이터는 N X M의 픽셀로 구성되는 영상 데이터일 수 있다.In an embodiment, the image data may be image data composed of N x M pixels.
실시예에서 블록은 영상 데이터의 단일 픽셀 또는 복수개의 픽셀을 포함하는 영역을 포함할 수 있다. In an embodiment, a block may include a single pixel of image data or an area including a plurality of pixels.
실시예에서 위치 분포 데이터는 개별 복수 개체의 위치를 표시하는 것이 아니라, 블록별로 개체, 개체의 몸통 또는 개체의 머리가 존재할 수 있는 확률을 나타내는 데이터이다. 즉, 위치 분포 데이터는 단일 픽셀 또는 구분된 영역을 포함하는 복수개의 픽셀별로 개체, 개체의 몸통 또는 개체의 머리가 존재할 수 있는 확률을 나타내는 데이터이다.In the embodiment, the position distribution data does not indicate the positions of individual plural objects, but is data indicating the probability that an object, a body of an object, or a head of an object may exist for each block. In other words, position distribution data is data that represents the probability that an object, the body of an object, or the head of an object may exist for a single pixel or a plurality of pixels including a divided area.
위치 분포 데이터는 영상 데이터에서 블록별로 개체의 존재 여부가 확률로서 표시된 데이터를 포함할 수 있다. 실시예에서, 위치 분포 데이터는 각 픽셀에 개체가 존재할 확률을 0 내지 255단계로 구분되는 각각 상이한 색으로 표현하는 히트맵일 수 있다.The location distribution data may include data indicating the presence or absence of an object as a probability for each block in the image data. In an embodiment, the location distribution data may be a heatmap that expresses the probability that an object exists in each pixel using different colors divided into levels from 0 to 255.
제1특징 추출 유닛(112)은 복수 개체를 포함하는 이미지로부터 생성된 영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성할 수 있다.The first
제1특징 추출 유닛(112)은 제1기간동안 생성된 적어도 하나의 제1영상 데이터를 이용하여 각각의 제1영상 데이터에 대한 적어도 하나의 제1위치 분포 데이터를 생성할 수 있다.The first
또한, 제1특징 추출 유닛(112)은 제2기간동안 생성된 적어도 하나의 제2영상 데이터를 이용하여 각각의 제2영상 데이터에 대한 적어도 하나의 제2위치 분포 데이터를 생성할 수 있다.Additionally, the first
또한, 제1특징 추출 유닛(112)은 제2기간 동안 생성된 적어도 하나의 영상 데이터로부터 급이 영역 및 급수 영역중 적어도 하나의 영역을 검출할 수 있다. Additionally, the first
제1특징 추출 유닛(112)은 영상 데이터에서 개체의 외곽선을 검출하고, 검출된 외곽선과 데이터 베이스(119)에 미리 저장된 동물 개체의 외형을 비교하여 미리 저장된 동물 개체의 외형과 매칭되는 외곽선내의 블록을 개체가 존재할 확률이 높은 블록으로 검출할 수 있다. 이때, 데이터 베이스(119)에 저장된 동물 개체의 외형은 적어도 하나 이상의 동물 개체의 외형일 수 있으며, 제1특징 추출 유닛(112)은 상술한 바와 같이 매칭되는 외곽선을 가진 블록을 개체로서 검출함과 동시에 해당 동물 개체의 종류도 판단할 수 있다.The first
또한, 예를 들면, 제1특징 추출 유닛(112)은 영상 데이터 내의 블록의 특징점을 추출하고, 추출된 특징점이 데이터 베이스(119)에 미리 저장된 동물 개체의 특징점에 임계치 이상의 근접도로 매칭되면, 해당 영상 데이터 내의 블록을 개체가 존재할 확률이 높은 블록으로 검출할 수 있다. 이때, 제1특징 추출 유닛(112)은 비교 대상이 되는 블록과 개체의 영상에서 특징점을 추출하고, 추출된 두 개체의 특징점 기술자(descriptor)를 매칭하는 SIFT(Scale Invariant Feature Transform) 또는SURF(Speeded Up Robust Features) 알고리즘을 사용할 수 있다.In addition, for example, the first
또한, 예를 들면, 제1특징 추출 유닛(112)은 영상 데이터에서 블록의 윤곽을 기초로 동물 개체를 검출할 수 있다. 보다 구체적으로, 제1특징 추출 유닛(112)은 영상 데이터에서 블록의 윤곽을 검출하여 에지 영상을 생성하고, 데이터 베이스(119)에 미리 저장된 사육장의 배경 영상인 전경 영상 데이터로부터 윤곽을 검출하여 배경 에지 영상을 생성하며, 에지 영상에서 배경 에지 영상을 뺀 차 영상(different image) 에서 개체 존재 확률을 검출할 수 있다. 이때, 제1특징 추출 유닛(112)은 영상 데이터 프레임의 그래디언트(gradient) 정보를 이용하여 프레임 내에 나타나는 개체의 윤곽을 에지로 검출하여 에지 영상을 생성한다. 여기서, 그래디언트 정보는 프레임에서 소정의 화소들 중 인접하는 화소들 간의 차이값으로부터 생성된 값으로서 차이의 절대값의 합을 의미하고, 에지는 그래디언트 정보를 이용한 개체 간의 경계선을 의미한다.Additionally, for example, the first
또한, 제1특징 추출 유닛(112)은 기촬영된 사육장 내 전경의 영상 데이터에서 배경에 해당하는 개체의 에지를 검출하여 배경 에지 영상을 생성할 수 있다. 이때의 배경 에지 영상은 기설정된 영역의 개체들의 윤곽을 배경에지로 검출한 영상일 수 있으나, 기촬영된 사육장(10) 내 전경의 복수개의 영상 데이터 프레임을 비교하여 소정의 횟수이상 반복하여 동일하게 나타나는 개체의 윤곽을 배경에지로 검출한 영상일 수도 있다.Additionally, the first
또한, 제1특징 추출 유닛(112)은 개체 검출 분류기를 이용하여 영상 데이터에서 개체 존재 확률을 검출할 수 있다. 이때, 개체 검출 분류기는 동물 개체의 자세나 외부 환경을 달리하여 기촬영한 동물 개체의 영상들로부터 훈련 DB 를 구축하여 학습된 것으로서, 이러한 개체 검출 분류기는 SVM(Support Vector Machine), 신경망, AdaBoost 알고리즘 등을 포함하는 다양한 학습 알고리즘을 통해 동물 개체의 DB 를 생성한다. 구체적으로, 제1특징 추출 유닛(112)은 기 촬영된 사육장 내 배경의 영상 데이터에서 전경에 해당하는 개체의 에지를 검출하고, 영상 데이터에서 검출된 전경 개체의 에지를 적용하고, 전경 개체의 에지가 적용된 영상 데이터의 영역에 개체 검출 분류기를 적용하여 개체 존재 확률을 검출할 수 있다. 제1특징 추출 유닛(112)은 개체, 개체의 머리 및 개체의 몸통 중 적어도 하나에 대한 트레이닝 세트(traning set)를 학습할 수 있다. 제1특징 추출 유닛(112)은 영상 데이터가 입력되면 학습된 알고리즘에 따라 영상 데이터의 블록별로 개체 또는 개체가 아닐 확률을 검출할 수 있다. 또는, 제1특징 추출 유닛(112)은 영상 데이터가 입력되면 학습된 알고리즘에 따라 영상 데이터의 블록별로 개체의 머리 또는 개체의 머리가 아닐 확률을 검출할 수 있다. 제1특징 추출 유닛(112)은 영상 데이터가 입력되면 학습된 알고리즘에 따라 영상 데이터의 블록별로 개체의 몸통 또는 개체의 몸통이 아닐 확률을 검출할 수 있다.본 발명의 실시예에서, 위치 분포 데이터는 복수 개체의 헤드부 및 바디부 중 적어도 하나에 대한 위치 분포 데이터일 수 있다. Additionally, the first
제1특징 추출 유닛(112)은 영상 데이터의 블록에서 개체 헤드부의 존재 확률 분포를 검출하여 헤드부에 대한 분포 데이터를 생성할 수 있다. 본 발명의 실시예에서 헤드부는 개체의 머리를 구성하는 픽셀의 집합을 의미할 수 있다. 예를 들어, 개체가 닭인 경우, 헤드부는 벼슬을 포함하는 머리를 의미할 수 있다.The first
또는 제1특징 추출 유닛(112)은 영상 데이터의 블록에서 개체 바디부의 존재 확률 분포를 검출하여 바디부에 대한 분포 데이터를 생성할 수 있다. 본 발명의 실시예에서 바디부는 개체의 개체의 몸통을 구성하는 픽셀의 집합을 의미할 수 있다. 예를 들어, 개체가 닭인 경우, 바디부는 날개, 가슴을 포함하는 몸통을 의미할 수 있다.Alternatively, the first
제1특징 추출 유닛(112)은 영상 데이터 블록의 외곽선과 데이터 베이스(119)에 미리 저장된 가금류의 헤드부 외형을 비교하여 가금류의 헤드부의 존재 확률 분포를 검출할 수 있다.The first
또는 제1특징 추출 유닛(112)은 영상 데이터블록의 외곽선과 데이터 베이스(119)에 미리 저장된 가금류의 바디부 외형을 비교하여 가금류의 바디부의 존재 확률 분포를 검출할 수 있다.Alternatively, the first
또는, 제1특징 추출 유닛(112)은 추출된 특징점이 데이터 베이스(119)에 미리 저장된 가금류 헤드부의 특징점에 임계치 이상의 근접도로 매칭되면, 해당 영상 데이터 내에서 헤드부가 존재할 확률이 높은 블록으로 검출할 수 있다.Alternatively, if the extracted feature point matches the feature point of the poultry head part previously stored in the
또는, 제1특징 추출 유닛(112)은 추출된 특징점이 데이터 베이스(118)에 미리 저장된 가금류 바디부의 특징점에 임계치 이상의 근접도로 매칭되면, 해당 영상 데이터 내에서 바디부가 존재할 확률이 높은 블록으로 검출할 수 있다.Alternatively, if the extracted feature point matches the feature point of the poultry body part previously stored in the
또한, 제1특징 추출 유닛(112)은 촬영부(111)에서 촬영한 영상 데이터에서 노이즈를 저감하고, 감마 보정(Gamma Correction), 색필터 배열보간(color filter array interpolation), 색 메트릭스(color matrix), 색보정(color correction), 색 향상(color enhancement) 등의 화질 개선을 위한 영상 신호 처리를 수행할 수 있다. 제1특징 추출 유닛(112)은 색채 처리, 블러처리, 에지 강조 처리, 영상 해석 처리, 영상 인식 처리, 영상 이펙트 처리 등도 수행할 수 있다.In addition, the first
제2특징 추출 유닛(113)은 생성된 영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성할 수 있다. The second
동작 데이터는 영상 데이터에서 블록별로 움직임 존재 여부가 표시된 데이터를 포함할 수 있다. 실시예에서 동작 데이터는 개별 복수 개체의 움직임을 표시하는 것이 아니라, 블록별로 움직임이 검출되었는지 여부를 나타내는 데이터이다. 즉, 동작 데이터는 단일 픽셀 또는 구분된 영역을 포함하는 복수개의 블록 또는 픽셀별로 움직임이 존재하였는지 여부를 나타내는 데이터이다. 동작 데이터는 개별 개체를 검출한 후 추적하여 움직임이 발생한지 여부를 판단한 데이터가 아니고, 영상 데이터상에서 움직임이 발생한 블록을 직접 검출한 데이터를 의미한다. 즉, 동작 데이터는 위치 분포 데이터상에서 움직임 발생 여부를 검출하는 것이 아니며, 영상 데이터 자체에서 움직임 발생 여부를 검출하는 것으로, 위치 분포 데이터의 개체 존재 확률 여부와는 독립적으로 움직임 발생 여부를 검출한 데이터를 의미한다.The motion data may include data indicating the presence or absence of motion for each block in the image data. In the embodiment, the motion data does not indicate the movement of a plurality of individual objects, but is data indicating whether movement has been detected for each block. That is, motion data is data indicating whether movement exists for a single pixel or a plurality of blocks or pixels including a divided area. Motion data is not data obtained by detecting and tracking individual objects to determine whether movement has occurred, but refers to data that directly detects the block in which movement occurred in the image data. In other words, motion data does not detect whether motion has occurred in the position distribution data, but rather detects whether motion has occurred in the image data itself. It is data that detects whether motion has occurred independently of the probability of the existence of an object in the position distribution data. it means.
실시예에 따른 동작 데이터는 임계값과 비교하여 움직임의 존재여부를 표현한다. Motion data according to an embodiment is compared with a threshold value to express the presence or absence of motion.
실시예에 따른 동작 데이터는 개체의 움직임뿐만 아니라, 개체 이외의 움직임도 표현이 될 수 있다. Motion data according to embodiments may represent not only the movement of an object, but also movements other than the object.
제2특징 추출 유닛(113)은 제1기간동안 생성된 적어도 하나의 제1영상 데이터를 이용하여 각각의 제1영상 데이터에 대한 적어도 하나의 제1동작 데이터를 생성할 수 있다.The second
또한, 제2특징 추출 유닛(113)은 제2기간동안 생성된 적어도 하나의 제2영상 데이터를 이용하여 각각의 제2영상 데이터에 대한 적어도 하나의 제2동작 데이터를 생성할 수 있다.Additionally, the second
제1동작 데이터 및 제2동작 데이터는 각각 제1영상 데이터와 제2영상 데이터를 이용하여 생성되는 것으로, 위치 분포 데이터에 기반하여 생성되는 것은 아니다.The first motion data and the second motion data are generated using first image data and second video data, respectively, and are not generated based on position distribution data.
제2특징 추출 유닛(113)은 단일 영상 데이터 또는 복수개의 연속된 영상 데이터를 이용하여 분포도상의 단일 픽셀 또는 특정 영역을 포함하는 복수개의 블록에서의 움직임을 검출할 수 있다.The second
실시예에서 동작 데이터는 기 설정되는 움직임 임계값과 비교하여 움직임의 존재여부를 표현한다. In an embodiment, motion data is compared to a preset motion threshold to express the presence or absence of motion.
실시예에 따른 동작 데이터는 개체의 움직임뿐만 아니라, 개체 이외의 움직임도 표현이 될 수 있다. Motion data according to embodiments may represent not only the movement of an object, but also movements other than the object.
제2특징 추출 유닛(113)은 Dense Optical Flow방식을 이용하여 블록별 움직임을 검출할 수 있다. 제2특징 추출 유닛(113)은 영상 데이터상의 모든 픽셀에 대해서 모션 벡터(Motion Vector)를 연산하여 각 픽셀에 대한 움직임을 검출할 수 있다. Dense Optical Flow방식의 경우 모든 픽셀에 대하여 모션 벡터를 연산하기 때문에 검출 정확도는 향상되지만 상대적으로 연산량은 증가하게 된다. 따라서, Dense Optical Flow방식은 이상상황이 발생된 것으로 의심되는 사육장이나 개체 숫자가 매우 많은 사육장 등 검출 정확도가 매우 높게 요구되는 특정 영역에 적용될 수 있다.The second
또는 제2특징 추출 유닛(113)은 Sparse Optical Flow방식을 이용하여 블록별 움직임을 검출할 수 있다. 제2특징 추출 유닛(113)은 영상 내 에지와 같은 움직임 추적이 쉬운 특징적인 일부 픽셀에 대해서만 모션 벡터를 연산하여 움직임을 검출할 수 있다. Sparse Optical Flow방식은 연산량이 감소하지만 한정적인 픽셀에 대한 결과만 얻을 수 있다. 따라서, Sparse Optical Flow방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the second
또는 제2특징 추출 유닛(113)은 Block Matching을 이용하여 블록별 움직임을 검출할 수 있다. 제2특징 추출 유닛(113)는 영상을 균등하게 또는 비균등하게 분할하여 분할 영역에 대해 모션 벡터를 연산하여 움직임을 검출할 수 있다. Block Matching은 분할 영역별로 모션 벡터를 연산하기 때문에 연산량이 감소하지만 영역별 모션 벡터에 대한 결과를 산출하기 때문에 검출 정확도가 상대적으로 낮을 수 있다. 따라서, Block Matching방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the second
또는 제2특징 추출 유닛(113)은 Continuous Frame Difference방식을 이용하여 블록별 움직임을 검출할 수 있다. 제2특징 추출 유닛(113)은 연속하는 영상 프레임을 픽셀 별로 비교하고, 그 차이만큼의 값을 연산하여 움직임을 검출할 수 있다. Continuous Frame Difference방식은 프레임간 차이값을 이용하여 움직임을 검출하기 때문에, 전체적인 연산량은 감소하지만 부피가 큰 개체 또는 중복되어 나타나는 개체에 대한 검출 정확도가 상대적으로 낮을 수 있다. 또한, Continuous Frame Difference방식은 배경 영상과 움직이지 않는 개체를 구분할 수 없어 정확도가 상대적으로 낮을 수 있다. 따라서, Continuous Frame Difference방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the second
또는 제2특징 추출 유닛(113)은 Background Subtraction방식을 이용하여 블록별 움직임을 검출할 수 있다. 제2특징 추출 유닛(113)은 배경 영상을 초기에 학습한 상태에서 연속하는 영상 프레임을 픽셀 별로 비교하고, 그 차이만큼의 값을 연산하여 움직임을 검출할 수 있다. Background Subtraction방식은 배경 영상을 미리 학습하고 있기 때문에 배경 영상과 움직이지 않는 개체를 구분할 수 있다. 따라서, 배경 영상을 필터링하는 별도의 과정이 필요하여 연산량은 증가하지만 정확도는 향상된다. 따라서, Background Subtraction방식은 이상상황이 발생된 것으로 의심되는 사육장이나 개체 숫자가 매우 많은 사육장 등 검출 정확도가 매우 높게 요구되는 특정 영역에 적용될 수 있다. Background Subtraction방식에서 배경 영상은 지속적으로 업데이트 될 수 있다.Alternatively, the second
제2특징 추출 유닛(113)은 사육장내의 환경과 외부의 설정에 따라 적절한 방식을 이용하여 분포도상에서 움직임을 검출한다.The second
제어부(114)는 제1기간 동안 생성된 제1위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성하고, 제2기간 동안 생성된 제2위치 분포 데이터 및 제2동작 데이터를 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성할 수 있다.The
본 발명의 실시예에서, 이상 개체 후보 데이터는 제1 위치 분포 데이터에서 개체의 존재 확률이 있으면서 제1동작 데이터상에서 움직임이 검출되지 않은 블록의 집합을 포함할 수 있다. 이상 개체 후보 데이터는 급이 및 급수가 진행되지 않은 기간 동안 개체의 존재 확률이 있는 블록 중 움직임이 검출되지 않은 블록을 이상 개체 후보로 판단하여 이에 대한 정보를 기록한 데이터를 의미한다.In an embodiment of the present invention, the abnormal entity candidate data may include a set of blocks in which there is a probability of existence of an entity in the first location distribution data but no movement is detected in the first motion data. Abnormal entity candidate data refers to data in which a block in which no movement was detected among blocks with a probability of existence of an entity during a period in which feeding or water supply was not in progress was determined to be an abnormal entity candidate and information about it was recorded.
본 발명의 실시예에서, 이상 개체 데이터는 이상 개체 후보 중, 제2 위치 분포 데이터에서 개체의 존재 확률이 있으면서 제2동작 데이터상에서 움직임이 검출되지 않은 블록의 집합을 포함할 수 있다. 이상 개체 데이터는 이상 개체 후보로 판단된 블록 중, 급이 및 급수 중 적어도 하나가 진행되는 기간 동안 개체의 존재 확률이 있는 블록 중 움직임이 검출되지 않은 블록을 이상 개체로 판단하여 이에 대한 정보를 기록한 데이터를 의미한다.In an embodiment of the present invention, the abnormal entity data may include a set of blocks among abnormal entity candidates for which there is a probability of existence of the entity in the second location distribution data but no movement is detected in the second motion data. Abnormal object data refers to blocks in which movement was not detected among blocks with a probability of existence of an object during the period when at least one of feeding and watering is in progress, which is determined to be an abnormal object and records information about it. It means data.
제어부(114)는 기 저장된 급이 및 급수 타임 테이블을 통하여 제1기간과 제2기간을 구분할 수 있다. 제어부(114)는 데이터베이스(119)에 저장된 급이 및 급수 타임 테이블을 이용하여 제1기간과 제2기간을 구분하고, 생성된 영상 데이터, 위치 분포 데이터, 동작 데이터를 기간에 따라 구분할 수 있다.The
또한, 제어부(114)는 외부로부터 급이 및 급수 타임 테이블을 수신하여 제1기간과 상기 제2기간을 구분할 수 있다. 제어부(114)는 통신부(115)를 통하여 관리서버, 공조장치와 데이터 통신을 수행할 수 있으며, 주기적으로 또는 요청에 따라 급이 및 급수 타임 테이블을 수신할 수 있다. Additionally, the
또한, 제어부(114)는 제1 동작 데이터와 제2 동작 데이터를 이용하여 제1기간과 제2기간을 구분할 수 있다. 가름류는 급이, 급수가 진행되는 제2기간에는 제1기간과 비교하여 큰 움직임을 보이거나, 급이대 또는 급수대 근처로 모이는 행동 패턴을 보인다. 따라서, 제어부(114)는 제1 동작 데이터와 제2 동작 데이터를 이용하여 가금류의 움직임 벡터의 총합계 또는 평균값이 급격하게 증가하는 시점을 검출하여 제1기간과 제2기간을 구분할 수 있다. 또는, 제어부(114)는 기 지정된 위치인 급이대 또는 급수대를 향한 움직임값이 급격하게 증가하는 시점을 검출하여 제1기간과 제2기간을 구분할 수 있다.Additionally, the
또한, 제어부(114)는 이상 개체 후보가 검출된 경우 제1기간과 제2기간 사이에 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력할 수 있다. 제어부(114)는 이상 개체 후보가 검출되어 질병에 걸린 것으로 의심되는 개체가 발견된 경우, 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력하여 제1기간에서 제2기간으로 환경을 전이시킬 수 있다.Additionally, when an abnormal entity candidate is detected, the
또한, 제어부(114)는 이상 개체 후보 데이터를 이용하여 이상 개체 후보가 검출된 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력할 수 있다. 제어부(114)는 이상 개체 후보가 검출된 영역의 근처에 위치한 급이기와 급수기만을 선별적으로 동작시킴으로써, 이상 개체 후보에 대한 움직임 변화를 관찰할 수 있다. 이 경우 급이기 및 급수기 각각은 독립적으로 동작할 수 있는 구조로 형성되어 있으며, 제어부는 각각의 급이기 및 급수기의 위치 정보를 파악하고 있다.Additionally, the
또한, 제어부(114)는 이상 개체 후보 데이터를 이용하여 이상 개체 후보가 검출된 영역을 제외한 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력할 수 있다. 제어부(114)는 이상 개체 후보가 검출되지 않은 영역의 근처에 위치한 급이기와 급수기만을 선별적으로 동작시킴으로써, 이상 개체 후보가 상대적으로 멀리 위치한 급이기, 급수기로 이동하는지 여부를 관찰할 수 있다.Additionally, the
제어부(114)는 이상 개체 후보가 제1기간 동안 움직임의 검출이 거의 이루어지지 않아 질병 의심 확률이 클 경우 이상 개체 후보가 검출된 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력하고, 제1기간 동안 움직임이 간헐적으로 검출되어 질병 의심 확률이 상대적으로 낮은 경우에는 이상 개체 후보가 검출된 영역을 제외한 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력할 수 있다. 즉, 질병 의심 확률이 높은 이상 개체 후보의 경우 움직임이 거의 없기 때문에 근처의 급이기, 급수기로 움직임을 유도하고, 질병 의심 확률이 상대적으로 낮은 경우에는 멀리 있는 급이기, 급수기로 움직임을 유도하여 이상 개체인지 여부를 판단할 수 있다.The
또한, 제어부(114)는 급이 영역 및 급수 영역 중 적어도 하나의 영역의 너비 변화를 통하여 이상 개체 데이터를 생성할 수 있다. 제어부(114)는 제1특징 추출 유닛에서 검출한 제2위치 분포 데이터상에서 급이 영역 및 급수 영역의 너비 변화가 어느 정도 발생하는지를 시간흐름에 따라 파악하여 이상 개체 데이터를 생성할 수 있다. 제어부(114)는 제2기간 동안 동작하는 급이기 및 급수기의 위치를 통하여 이상 개체 후보 근처의 급이 영역 및 급수 영역을 판단하고, 해당 급이 영역 및 급수 영역의 너비 변화를 다른 급이 영역 및 급수 영역의 너비 변화와 비교하여 이상 개체 데이터를 생성할 수 있다. 이 때, 제어부(114)는 해당 급이 영역 및 급수 영역의 너비 변화량이 다른 급이 영역 및 급수 영역의 너비 변화량보다 기 설정된 수치보다 작을 경우 이상 개체 후보를 이상 개체로 판단할 수 있다.Additionally, the
또한, 제어부(114)는 급이기 및 급수기 중 적어도 하나의 높이를 조절하는 구동 명령을 출력할 수 있다. 제어부(114)는 이상 개체 후보가 검출된 영역에 할당된 급이기 및 급수기 중 적어도 하나의 높이를 조절하여 이상 개체 후보의 점프 동작을 유도할 수 있다. 제어부(114)는 이 때, 측부에 위치한 촬상 장치에서 촬영한 영상 데이터로부터 생성된 동작 데이터를 이용하여 이상 개체 후보의 점프 동작을 판단할 수 있다.Additionally, the
또한, 제어부(114)는 이상 개체 후보 데이터 및 사육장내에 배치된 음성 입력 수단(미도시)의 음성 검출 데이터를 이용하여 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력할 수 있다. 제어부(114)는 이상 개체 후보가 검출된 영역과 음성 검출 데이터가 검출된 영역을 비교하여 중복되는 영역을 판단하고, 중복되는 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력할 수 있다. 제어부(114)는, 이상 개체 후보가 검출된 영역에서 개체의 소리가 검출될 경우 해당 영역의 급이기 및 급수기 중 적어도 하나를 구동시킴으로써 이상 개체 후보의 동작을 유도할 수 있다.Additionally, the
제어부(114)는 영상 데이터의 위치 분포 데이터 및 동작 데이터를 비교하여 블록별 개체의 존재 확률 분포와 움직임 검출 여부가 중복되는 블록을 나타내는 이상 개체 데이터를 생성할 수 있다. The
제어부(114)는 복수개의 영상 데이터에 대한 위치 분포 데이터 및 동작 데이터를 비교하여 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터에 나타난 블록별 움직임 검출 누적 횟수와 블록별 움직임 비검출 누적 횟수를 연산하고, 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 이상 개체 후보 데이터를 생성할 수 있다.The
제어부(114)는 제1기간 동안 생성된 제1위치 분포 데이터 및 제1동작 데이터를 이용하여, 제1위치 분포 데이터 상에서 개체가 존재할 확률이 있는 것으로 판단된 블록 중 움직임이 검출되지 않은 블록을 이상 개체 후보로 판단하여 이에 대한 정보를 나타내는 이상 개체 후보 데이터를 생성할 수 있다. The
제어부(114)는 제1기간 동안 생성된 적어도 하나의 제1영상 데이터를 이용하여, 블록별 개체의 존재 확률 분포를 나타내는 제1위치 분포 데이터 상에서 개체가 존재할 확률이 있는 것으로 판단된 블록 중 움직임이 검출되지 않은 블록에 질병에 걸린 개체가 위치한 것으로 추정하고, 이에 대한 이상 개체 후보 데이터를 생성할 수 있다. 제어부(114)는 블록별 개체의 존재 확률 분포를 나타내는 제1위치 분포 데이터 상에서 개체가 존재할 확률이 없는 것으로 판단된 블록에서 움직임이 검출되더라도 이물질이나 노이즈로 판단하고 이상 개체 후보 데이터로 판단하지 않는다. 즉, 이상 개체 후보 데이터는 제1기간 동안 생성된 복수개의 제1영상 데이터에 대하여 누적된 블록의 위치 정보와 움직임 검출 정보를 이용하여 개체의 질병 여부를 1차적으로 판단한 결과 데이터를 의미할 수 있다. The
제어부(114)는 제2기간 동안의 제2영상 데이터로부터 생성된 제2위치 분포 데이터 및 제2동작 데이터를 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성할 수 있다. 제어부(114)는 이상 개체 후보를 대상으로, 제2기간 동안 생성된 제2위치 분포 데이터 상에서 개체가 존재할 확률이 있는 것으로 판단된 블록 중 움직임이 검출되지 않은 블록에 질병에 걸린 개체가 위치한 것으로 판단하고, 이에 대한 이상 개체 데이터를 생성할 수 있다. 제어부(114)는 이상 개체 후보라 하더라도, 제2기간 동안 생성된 제2위치 분포 데이터 상에서 개체가 존재할 확률이 없는 것으로 판단되거나 또는 움직임이 검출된 블록은 이상 개체로 판단하지 않는다. 즉, 제어부는 이상 개체 후보 데이터상에서 이상 개체 후보로 판단된 블록 중, 제2기간 동안 개체 존재 확률이 있으면서 동시에 움직임이 검출되지 않은 블록을 이상 개체로 판단할 수 있다.The
제어부(114)는 예를 들면, 제1기간 동안 생성된 제1위치 분포 데이터 및 제1동작 데이터를 이용하여 이상 개체 후보 데이터를 생성하고, 제2기간 동안 생성된 제2위치 분포 데이터, 제2동작 데이터 및 이상 개체 후보 데이터를 이용하여 이상 개체 데이터를 생성할 수 있다. 또는 제어부(114)는 예를 들면, 제1기간 동안 생성된 복수개의 제1위치 분포 데이터 및 복수개의 제1동작 데이터를 이용하여 이상 개체 후보 데이터를 생성하고, 제2기간 동안 생성된 복수개의 제2위치 분포 데이터, 복수개의 제2동작 데이터 및 이상 개체 후보 데이터를 이용하여 이상 개체 데이터를 생성할 수 있다. For example, the
제어부(114)는 이상 개체 후보 데이터 및 이상 개체 데이터 중 적어도 하나의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 영상 데이터 상에서 블록별 픽셀 표시를 제어할 수 있다. 여기서, 픽셀의 표시란 픽셀의 채도, 픽셀의 명암, 픽셀의 색상, 픽셀의 윤곽선, 마크 표시 등 임의의 지점에 대응되는 픽셀을 다른 픽셀과 구분하여 표시하기 위한 모든 개념을 포함할 수 있다. 본 발명의 실시예에서는 픽셀값의 조절을 통하여 픽셀의 표시를 제어할 수 있다. 픽셀값은 단계적으로 조절될 수 있으며, 픽셀값이 높은 픽셀의 경우, 픽셀값이 낮은 픽셀 보다 시각적으로 강조되어 표시될 수 있다. 그러나 이에 한정되는 것은 아니고, 픽셀값이 낮은 픽셀이 픽셀값이 높은 픽셀보다 강조되어 표시되는 것으로 설정할 수 있다. The
제어부(114)는 제1기간 동안 생성된 복수개의 제1위치 분포 데이터, 제1동작 데이터 및 이상 개체 후보 데이터를 비교하여 제1기간 동안의 블록별 움직임 검출 누적 횟수와 복수 개체의 움직임 비검출 누적 횟수를 연산하고, 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 영상 데이터의 블록별 픽셀 표시를 제어할 수 있다.The
또는 제어부(114)는 이상 개체 후보 데이터, 제2기간 동안 생성된 복수개의 제2위치 분포 데이터, 제2동작 데이터를 비교하여 제1기간 및 제2기간 동안의 블록별 움직임 검출 누적 횟수와 복수 개체의 움직임 비검출 누적 횟수를 연산하고, 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 영상 데이터의 블록별 픽셀 표시를 제어할 수 있다.Alternatively, the
제어부(114)는 개체가 존재할 확률이 있는 블록의 움직임이 누적 검출될 수록 정상개체로 분류하고, 움직임이 누적 검출되지 않을수록 이상개체로 분류하여 영상 데이터의 픽셀값을 다르게 표시할 수 있다. The
예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터의 움직임 비검출 누적 횟수에 따라 대응되는 블록의 블록값을 단계적으로 증가시킬 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임이 검출되지 않는 횟수가 제2기간 동안 누적된다면 해당 블록의 블록값을 단계적으로 증가시켜 강조 표시할 수 있다.For example, the
예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터의 연속된 움직임 비검출 누적 횟수에 따라 대응되는 블록의 블록값을 단계적으로 증가시킬 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임이 검출되지 않는 연속 횟수가 제2기간 동안 누적된다면 해당 블록의 블록값을 단계적으로 증가시켜 강조 표시할 수 있다.For example, the
예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터의 움직임 비검출 누적 횟수가 제1임계값을 초과할 경우 대응되는 블록의 블록값을 제1설정값으로 제어할 수 있다. 제1설정값은 블록값의 최댓값일 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임 비검출 누적 횟수가 제1임계값을 초과할 경우 해당 블록의 블록값을 최대한으로 강조 표시할 수 있다.For example, if the accumulated number of motion non-detection counts of motion data among blocks with a probability of existence of an object in the position distribution data exceeds the first threshold, the
예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터의 연속된 움직임 비검출 누적 횟수가 제1임계값을 초과할 경우 대응되는 블록의 블록값을 제1설정값으로 제어할 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임 비검출 누적 연속 횟수가 제1임계값을 초과할 경우 해당 블록의 블록값을 최대한으로 강조 표시할 수 있다.For example, when the accumulated number of consecutive motion non-detection counts of motion data among blocks with a probability of existence of an object in the position distribution data exceeds the first threshold, the
예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터의 움직임 검출 누적 횟수에 따라 대응되는 블록의 블록값을 단계적으로 감소시킬 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임 검출 횟수가 누적된다면 해당 블록의 블록값을 단계적으로 감소시켜 비강조 표시할 수 있다.For example, the
예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터의 연속된 움직임 검출 누적 횟수에 따라 대응되는 블록의 블록값을 단계적으로 감소시킬 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임 검출 연속 횟수가 누적된다면 해당 블록의 블록값을 단계적으로 감소시켜 비강조 표시할 수 있다.For example, the
예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터에서 움직임이 검출된 블록의 블록값을 제2설정값으로 제어할 수 있다. 제2설정값은 원본 영상 데이터의 블록값일 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임이 검출될 경우 해당 블록의 블록값을 최소한으로 비강조 표시할 수 있다.For example, the
예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터에서 움직임이 검출된 블록을 이상 개체 후보 데이터 또는 이상 개체 데이터에서 제외시킬 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임이 검출될 경우 해당 블록을 이상 개체 데이터에서 제외시킬 수 있다.For example, the
예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터의 움직임 검출 누적 횟수가 제2임계값을 초과할 경우 대응되는 블록의 블록값을 제2설정값으로 제어할 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임 검출 누적 횟수가 제2임계값을 초과할 경우 해당 블록의 블록값을 최소한으로 비강조 표시할 수 있다.For example, if the accumulated number of motion detections of motion data among blocks with a probability of existence of an object in the position distribution data exceeds the second threshold, the
예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터의 움직임 검출 누적 횟수가 제2임계값을 초과한 블록을 이상 개체 후보 데이터 또는 이상 개체 데이터에서 제외시킬 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임 검출 누적 횟수가 제2임계값을 초과할 경우 해당 블록을 이상 개체 데이터에서 제외시킬 수 있다.For example, the
예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터의 연속된 움직임 검출 누적 횟수가 제2임계값을 초과할 경우 대응되는 블록의 블록값을 제2설정값으로 제어할 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임 검출 연속 누적 횟수가 제2임계값을 초과할 경우 해당 블록의 블록값을 최소한으로 비강조 표시할 수 있다.For example, when the accumulated number of consecutive motion detections of motion data among blocks with a probability of existence of an object in the position distribution data exceeds the second threshold, the
예를 들면, 제어부(114)는 위치 분포 데이터에서 개체의 존재 확률이 있는 블록 중 동작 데이터의 연속된 움직임 검출 누적 횟수가 제2임계값을 초과할 경우 대응되는 블록을 이상 개체 후보 데이터 또는 이상 개체 데이터에서 제외시킬 수 있다. 제어부(114)는 이상 개체 후보 데이터에서 이상 개체 후보로 분류된 블록의 움직임 검출 연속 누적 횟수가 제2임계값을 초과할 경우 해당 블록을 이상 개체 데이터에서 제외시킬 수 있다.For example, if the accumulated number of consecutive motion detections of motion data among blocks with a probability of existence of an object in the position distribution data exceeds the second threshold, the
제어부(114)는 촬상 장치(100)의 동작을 위한 각종 명령을 수행할 수 있다. The
제어부(114)는 예를 들면, 유저 인터페이스부(117) 또는 데이터 베이스(119)에 저장된 명령을 수행하여 촬상 장치(100)의 동작을 수행할 수 있다.For example, the
또는 제어부(114)는 관리 서버(200)로부터 수신한 명령을 이용하여 촬상 장치(100)의 각종 동작을 제어할 수 있다.Alternatively, the
제어부(114)는 촬영부(11)를 제어하여 움직임 검출 누적 횟수가 제3설정값 이상인 블록을 추적 촬영할 수 있다. 제3설정값은 유저 인터페이스부(117)를 통하여 설정되거나 또는 관리 서버(200)의 제어 명령을 통하여 설정될 수 있다. 제어부(114)는 촬영부(111)를 제어하여 이상개체가 있는 특정 영역을 추적 촬영하여 영상 데이터를 생성하게 함으로써 지속적인 모니터링을 수행할 수 있게 한다.The
이 때, 제어부(114)는 촬상 장치(100)의 팬틸트부(122)를 제어하여 추적 촬영을 수행할 수 있다. 팬틸트부(122)는 팬(Pan, 수평방향) 및 틸트(Tilt, 수직 방향) 2개의 모터를 구동하여 촬영부(111)의 촬영 영역을 제어할 수 있다. 팬틸트부(122)는 제어부(114)의 제어에 따라 특정 영역을 촬영하기 위하여 촬영부(111)의 지향 방향을 조절할 수 있다. 또한, 팬틸트부(122)는 제어부(114)의 제어에 따라 특정 블록을 트래킹하기 위하여 촬영부(111)의 지향 방향을 조절할 수 있다.At this time, the
통신부(115)는 타 촬상 장치, 데이터 수집장치(150) 또는 관리 서버(200)와 데이터 통신을 수행할 수 있다. 예를 들면, 통신부(115)는 무선랜(Wireless LAN: WLAN), 와이 파이(Wi-Fi), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등의 원거리 통신 기술을 사용하여 데이터 통신을 수행할 수 있다.The
또는 통신부(115)는 블루투스, RFID(RadioFrequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비, 인접 자장 통신(NFC) 등이 포함될 수 있다. 또한, 유선 통신 기술로는, USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등의 근거리 통신 기술을 사용하여 데이터 통신을 수행할 수 있다.Alternatively, the
예를 들면, 통신부(115)는 근거리 통신 기술을 사용하여 타 촬상 장치 또는 데이터 수집장치(150)와 데이터 통신을 수행하고, 원거리 통신 기술을 사용하여 관리 서버(200)와 데이터 통신을 수행할 수 있다, 그러나 이에 한정되는 것은 아니고, 사육장(10)의 제반 사항 등을 고려하여 다양한 통신 기술이 사용될 수 있다.For example, the
통신부(115)는 촬영부(111)에서 촬영한 원본 영상 데이터를 데이터 수집장치(150) 또는 관리 서버(200)에 전송할 수 있다.The
또는 통신부(115)는 데이터 수집장치(150) 또는 원격의 관리 서버(200) 중 적어도 하나로 픽셀값이 조절된 영상 데이터, 위치 분포 데이터, 동작 데이터 및 좌표 정보 중 적어도 하나를 전송할 수 있다. 이 때, 좌표 정보는 이상개체로 의심되는 지점 또는 개체에 대한 좌표를 의미할 수 있다.Alternatively, the
통신부(115)를 통하여 전송되는 데이터는 인코딩부(118)를 통하여 인코딩된 압축 데이터일 수 있다.Data transmitted through the
표시부(116)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The
표시부(116)는 제어부(114)를 통하여 픽셀값이 조절된 영상 데이터 및 분포 데이터 중 적어도 하나를 디스플레이할 수 있다.The
또한, 표시부(116)는 촬영부(111)에서 촬영한 원본 영상 데이터를 화면에 출력할 수 있다. Additionally, the
또한, 표시부(116)는 다양한 사용자 인터페이스 또는 그래픽 사용자 인터페이스를 화면에 출력할 수 있다.Additionally, the
유저 인터페이스부(117)는 촬상 장치(100)의 동작 제어를 위한 입력 데이터를 발생시킨다. 유저 인터페이스부(117)는 키 패드, 돔 스위치, 터치 패드, 조그 휠, 조그 스위치 등으로 구성될 수 있다. 표시부(116)와 터치패드가 상호 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 표시부(116)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. The
유저 인터페이스부(117)는 촬상 장치의 동작을 위한 다양한 명령을 입력받을 수 있다.The
인코딩부(118)는 촬영부(111)에서 촬영한 원본 영상 데이터 또는 제1특징 추출 유닛(112), 제2특징 추출 유닛(113), 제어부(114) 등을 통하여 가공된 가공 영상 데이터를 디지털 신호로 부호화한다. 예를 들면, 인코딩부(118)는 H.264, H.265, MPEG(Moving Picture Experts Group), M-JPEG(Motion Joint Photographic Experts Group) 표준에 따라 영상 데이터를 인코딩할 수 있다.The
데이터 베이스(119)는, 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 촬상 장치(100)는 인터넷(internet) 상에서 데이터 베이스(119)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 웹 스토리지와 관련되어 동작할 수도 있다.The
데이터 베이스(119)는 촬영부(111)에서 촬영한 영상 데이터를 저장할 수 있으며, 과거 일정 기간 동안의 영상 데이터를 저장할 수 있다.The
또한, 데이터 베이스(119)는, 촬상 장치(100)가 동작하는데 필요한 데이터와 프로그램 등을 저장할 수 있다.Additionally, the
또한, 데이터 베이스(119)는, 다양한 사용자 인터페이스(User Interface: UI) 또는 그래픽 사용자 인터페이스(Graphic User Interface: GUI)를 저장할 수 있다.Additionally, the
조도 센서(120)는 주변의 조도를 감지할 수 있다. 조도 센서는 광도전셀, 포토다이오드, 포토트랜지스터, 포토사이러스터, 광전자 증배관 및 광전관 중 적어도 하나를 포함할 수 있다.The
광도전셀은 광도전 효과를 이용하여 주변의 조도를 감지한다. 광도전 효과란, 반도체에 빛을 조사하면 반도체 중 캐리어 밀도가 증가하여 도전율이 증가하는 현상으로 외부로부터의 빛의 에너지에 의하여 가전자대의 자유전자가 전도대에 여기되어 그 결과 도전성을 나타내게 되는 현상이다.Photoconductive cells use the photoconductive effect to detect surrounding illumination. The photoconduction effect is a phenomenon in which when light is irradiated to a semiconductor, the carrier density in the semiconductor increases and the conductivity increases. It is a phenomenon in which free electrons in the valence band are excited to the conduction band by the energy of light from the outside, resulting in conductivity. .
포토다이오드, 포토트랜지스터, 포토사이러스터는 광기전력 효과를 이용하여 주변의 조도를 감지한다, 광기전력 효과란, PN접합에서 N형과 P형 반도체의 경계층에 빛을 조사하면 전자와 정공이 발생(전자정공쌍 생성이라고 한다)하여 전계와 열확산에 의해 PN접합의 전위장벽을 뛰어넘어 이동하여 기전력을 발생하는 현상이며 광전효과의 일종으로서 반도체의 PN접합이나 반도체와 금속의 접합면에 빛이 입사했을 때 기전력이 발생하는 현상이다.Photodiodes, phototransistors, and photothyristors use the photovoltaic effect to sense ambient illumination. The photovoltaic effect means that when light is irradiated to the boundary layer of the N-type and P-type semiconductors in a PN junction, electrons and holes are generated (electrons). It is a phenomenon in which an electromotive force is generated by moving beyond the potential barrier of the PN junction due to an electric field and thermal diffusion. It is a type of photoelectric effect when light is incident on the PN junction of a semiconductor or the junction surface of a semiconductor and a metal. This is a phenomenon in which electromotive force is generated.
광전자 증배관, 광전관은 광전자 방출효과를 이용하여 주변의 조도를 감지한다. 광전자 방출효과란, 금속이나 금속산화물 등에 빛이 닿았을 때 일의 함수보다도 큰 에너지를 얻게 되며 원자상의 전자가 금속표면에서 방출되는 효과를 가르키며 그 효과를 이용하는 수광면을 광전면이라 한다.Photomultiplier tubes and photoelectron tubes detect ambient illuminance using the photoelectron emission effect. The photoelectron emission effect refers to the effect in which energy greater than the work function is obtained when light hits a metal or metal oxide, and atomic electrons are emitted from the metal surface. The light-receiving surface that uses this effect is called the photofront.
광원부(121)는 제어부(114)의 제어에 따라 지향하는 방향으로 광을 조사할 수 있다. 예를 들면, 광원부(121)는 적어도 하나의 레이저 다이오드(LD), 발광 다이오드(LED)를 포함할 수 있다. 광원부(121)는 제어부(114)의 제어에 따라 다양한 파장대의 광을 조사할 수 있다.The
예를 들면, 광원부(121)는 야간 촬영을 위하여 적외선 파장대의 광을 조사할 수 있다. 또는, 광원부(121)는 사육장 내 가축의 광화학 치료(photochemotherapy)를 위하여 자외선 파장대의 광을 조사할 수도 있다.For example, the
도3은 기존 방식에 따른 이상 개체 검출 방식을 설명하기 위한 도면이고, 도4는 본 발명의 실시예에 따른 이상 개체 검출 장치의 동작을 설명하기 위한 도면이다.Figure 3 is a diagram for explaining an abnormal object detection method according to an existing method, and Figure 4 is a diagram for explaining the operation of an abnormal object detection device according to an embodiment of the present invention.
도3을 참조하면, 기존 이상 개체 검출 방식은 1차적으로 개체를 검출한 후, 검출된 개체를 지속적으로 트래킹하면서 움직이 발생 여부를 관찰한다. 검출된 개체는 지속적으로 트래킹되어 일정 시간 동안 움직임이 검출되지 않을 경우에는 질병이 있는 것으로 판단하여 알람을 출력한다. 이러한 기존 방식에 의하면 검출된 개체에 대한 일대일 추적이 지속적으로 수행되어야 한다. 때문에, 적게는 수백마리, 많게는 수십만마리의 가금류를 사육하고 있는 사육장에서 촬영된 영상 데이터상에서 개별 개체를 검출하는 것은 실질적으로는 불가능하며, 검출된 개체를 지속적으로 트래킹하는 것은 연산 트래픽에 과도한 부담을 줄 수 있다. 또한, 주변 상황을 고려하지 않고 단순히 움직임이 없는 개체를 이상 개체로 판단하기 때문에 판단에 대한 정확도 및 신뢰도가 현저하게 떨어지게 된다.Referring to Figure 3, the existing abnormal object detection method first detects an object and then continuously tracks the detected object to observe whether it moves. The detected object is continuously tracked, and if no movement is detected for a certain period of time, it is determined to be diseased and an alarm is output. According to these existing methods, one-to-one tracking of detected objects must be continuously performed. Therefore, it is practically impossible to detect individual objects in video data captured in a farm where at least hundreds or as many as hundreds of thousands of poultry are raised, and continuous tracking of detected objects places an excessive burden on computational traffic. I can give it. In addition, because an object without movement is simply judged to be an abnormal object without considering the surrounding situation, the accuracy and reliability of the judgment are significantly reduced.
도4를 참조하면, 본 발명의 실시예에 따른 이상 개체 검출 장치는 영상 데이터의 블록별로 개체의 존재 확률을 판단하고, 개체의 존재 확률과는 독립적으로 블록별 움직임을 검출한다. 즉, 본 발명의 실시예에 따른 이상 개체 검출 장치는 블록별로 개체가 존재하는지 여부를 확률적으로 판단하고, 개체의 존재 여부와는 상관없이 블록별로 움직임이 있는지 여부를 검출한다. 이후에 개체가 존재할 확률이 있으면서 움직임이 검출된 블록은 정상 개체로 판단하고, 개체가 존재할 확률이 있으면서 움직임이 검출되지 않는 블록은 이상 개체로 판단한다. 본 발명의 실시예에 따르면, 개체 자체를 검출하는 방식이 아닌 블록별로 개체가 존재할 확률을 판단하기 때문에 개체가 모여있거나 겹쳐있는 경우라 하더라도 개체 검출에 오류가 발생하지 않는다. 또한, 개체 자체를 트래킹하지 않기 때문에 연산량이 현저하게 줄어들게 된다.Referring to Figure 4, the abnormal object detection apparatus according to an embodiment of the present invention determines the probability of existence of an object for each block of image data and detects movement for each block independently of the probability of existence of the object. That is, the abnormal object detection device according to an embodiment of the present invention probabilistically determines whether an object exists for each block and detects whether there is movement for each block regardless of whether an object exists. Afterwards, a block in which there is a probability that an object exists and movement is detected is judged as a normal object, and a block in which there is a probability that an object exists in which movement is not detected is judged as an abnormal object. According to an embodiment of the present invention, since the probability that an object exists is determined for each block rather than detecting the object itself, errors do not occur in object detection even if the objects are clustered or overlapped. Additionally, because the object itself is not tracked, the amount of computation is significantly reduced.
도4(a)를 참조하면 본 발명의 실시예에 따른 이상 개체 검출 장치는 1차적으로 제1기간 동안에 생성된 영상 데이터의 블록별 개체의 존재 확률 및 움직임 검출 여부에 따라 이상 개체 후보를 판별한다. 이후 도4(b)에 따라, 제2기간 동안 급이기 및 급수기 중 적어도 하나가 동작하여 개체의 움직임을 유도하고, 제2기간 동안 생성된 영상 데이터의 블록별 개체의 존재 확률 및 움직임 검출 여부에 따라 이상 개체 후보가 이상 개체인지를 판단할 수 있다. 본 발명의 실시예에 따른 이상 개체 검출 장치는 1차적으로 이상 개체 후보를 검출하고, 급이기 및 급수기를 동작시켜 이상 개체 후보의 움직임을 유도하여 이상 개체를 최종적으로 판단하기 때문에 이상 개체 검출의 정확도 및 신뢰도를 현저하게 향상시킬 수 있다.Referring to Figure 4(a), the abnormal object detection device according to an embodiment of the present invention primarily determines abnormal object candidates based on the probability of existence of the object and whether or not motion is detected for each block of image data generated during the first period. . Thereafter, according to FIG. 4(b), during the second period, at least one of the feeder and the waterer operates to induce movement of the object, and the probability of existence of the object and whether or not movement is detected for each block of the image data generated during the second period are determined. Accordingly, it can be determined whether the abnormal entity candidate is an abnormal entity. The abnormal object detection device according to an embodiment of the present invention primarily detects abnormal object candidates, operates the feeder and waterer to induce the movement of the abnormal object candidates, and finally determines the abnormal object, thereby improving the accuracy of abnormal object detection. and reliability can be significantly improved.
도5는 본 발명의 실시예에 따른 이상 개체 검출 방법의 순서도이다.Figure 5 is a flowchart of a method for detecting abnormal objects according to an embodiment of the present invention.
도5를 참고하면, 먼저 촬영부는 제1기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S501).Referring to Figure 5, first, the photographing unit captures images including a plurality of objects during the first period (S501).
다음으로, 촬영부는 복수 개체를 포함하는 이미지를 이용하여 제1영상 데이터를 생성한다. 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 촬영부는 제1기간 동안 순차적으로 촬영되는 이미지를 이용하여 복수개의 제1영상 데이터를 생성한다 (S502).Next, the photographing unit generates first image data using an image including a plurality of objects. One image data may mean a single frame. The photographing unit generates a plurality of first image data using images sequentially captured during the first period (S502).
실시예에 따른 영상 데이터는 N X M의 픽셀로 구성되는 영상 데이터일 수 있다.Image data according to an embodiment may be image data composed of N x M pixels.
다음으로, 제1특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성한다(S503).Next, the first feature extraction unit generates first position distribution data indicating the position distribution of a plurality of objects using the first image data (S503).
다음으로, 제2특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성한다(S504).Next, the second feature extraction unit uses the first image data to generate first motion data indicating the movement of the motion object among the plurality of objects (S504).
다음으로, 제어부는 제1 위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성한다(S505).Next, the control unit compares the first position distribution data and the first motion data to generate abnormal entity candidate data representing the abnormal entity candidate (S505).
다음으로, 제어부는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제1영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S506).Next, the control unit controls pixel display for a plurality of blocks on the first image data according to the accumulated number of motion detections and non-detection motions of the abnormal object data (S506).
다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S507).Next, the photographing unit captures images including multiple objects during the second period (S507).
다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 이용하여 제2영상 데이터를 생성한다(S508).Next, the imaging unit generates second image data using images including a plurality of objects during the second period (S508).
다음으로, 제1특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성한다(S509).Next, the first feature extraction unit generates second position distribution data indicating the position distribution of a plurality of objects using the second image data (S509).
다음으로, 제2특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제2동작 데이터를 생성한다(S510).Next, the second feature extraction unit uses the second image data to generate second motion data indicating the movement of the motion object among the plurality of objects (S510).
다음으로, 제어부는 제2 위치 분포 데이터 및 제2동작 데이터를 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성한다. 이 때, 제어부는 기 저장된 급이 및 급수 타임 테이블 또는 외부로부터 수신한 급이 및 급수 타임 테이블을 이용하여 제1기간과 제2기간을 구분한다(S511).Next, the control unit compares the second position distribution data and the second motion data with the abnormal entity candidate data to generate abnormal entity data representing the abnormal entity. At this time, the control unit divides the first period and the second period using a pre-stored feeding and watering time table or a feeding and watering time table received from the outside (S511).
다음으로, 제어부는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제2영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S512).Next, the control unit controls pixel display for a plurality of blocks on the second image data according to the accumulated number of motion detections and non-detection motions of the abnormal object data (S512).
다음으로, 제어부는 이상 개체 데이터에 대한 알람을 외부로 출력한다(S513).Next, the control unit outputs an alarm regarding abnormal entity data to the outside (S513).
실시예에 따른 위치 분포 데이터 생성 및 동작 데이터를 생성하는 단계는 동시에 수행되거나, 어느 하나의 데이터 생성 과정이 먼저 이루어 질 수 있다. The steps of generating location distribution data and generating motion data according to the embodiment may be performed simultaneously, or either data generation process may be performed first.
실시예에 따른 위치 분포 데이터 생성 및 동작 데이터는 각각 별개의 동작을 병렬적으로 수행하여, 위치 분포 데이터와 동작 데이터를 생성하는 것으로서, 위치 분포 데이터를 이용하여 동작 데이터를 생성하거나 또는 동작 데이터를 이용하여 위치 분포 데이터를 생성하는 것은 아니다. Position distribution data generation and motion data according to the embodiment each generate position distribution data and motion data by performing separate operations in parallel, and motion data is generated using position distribution data or motion data is used. Therefore, it does not generate location distribution data.
상기S501 내지 S513 단계는 단일 이상 개체 후보 데이터 및 단일 이상 개체 데이터를 생성하는 것으로 간략하게 도시되었으나, 이상 개체 후보 데이터 및 이상 개체 데이터는 이미지 촬영을 통한 영상 데이터 생성이 연속적으로 이루어짐에 따라 지속적으로 생성 및 업데이트 되어 픽셀 표시를 제어하도록 동작한다.Steps S501 to S513 are briefly shown as generating single abnormal entity candidate data and single abnormal entity data, but abnormal entity candidate data and abnormal entity data are continuously generated as image data is continuously generated through image capture. and updated to operate to control pixel display.
도6은 본 발명의 실시예에 따른 이상 개체 검출 방법의 순서도이다.Figure 6 is a flowchart of a method for detecting abnormal objects according to an embodiment of the present invention.
도6을 참고하면, 먼저 촬영부는 제1기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S601).Referring to Figure 6, first, the photographing unit captures images including a plurality of objects during the first period (S601).
다음으로, 촬영부는 복수 개체를 포함하는 이미지를 이용하여 제1영상 데이터를 생성한다. 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 촬영부는 제1기간 동안 순차적으로 촬영되는 이미지를 이용하여 복수개의 제1영상 데이터를 생성한다(S602).Next, the photographing unit generates first image data using an image including a plurality of objects. One image data may mean a single frame. The photographing unit generates a plurality of first image data using images sequentially photographed during the first period (S602).
실시예에 따른 영상 데이터는 N X M의 픽셀로 구성되는 영상 데이터일 수 있다.Image data according to an embodiment may be image data composed of N x M pixels.
다음으로, 제1특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성한다(S603).Next, the first feature extraction unit generates first position distribution data representing the position distribution of a plurality of objects using the first image data (S603).
다음으로, 제2특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성한다(S604).Next, the second feature extraction unit uses the first image data to generate first motion data indicating the movement of the motion object among the plurality of objects (S604).
다음으로, 제어부는 제1 위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성한다(S605).Next, the control unit compares the first position distribution data and the first motion data to generate abnormal entity candidate data representing the abnormal entity candidate (S605).
다음으로, 제어부는 이상 개체 후보 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제1영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S606).Next, the control unit controls pixel display for a plurality of blocks on the first image data according to the accumulated number of motion detections and accumulated number of non-motion detections of the abnormal object candidate data (S606).
다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S607).Next, the photographing unit captures images including multiple objects during the second period (S607).
다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영하여 제2영상 데이터를 생성한다(S608).Next, the photographing unit captures images including a plurality of objects during the second period and generates second image data (S608).
다음으로, 제1특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성한다(S609).Next, the first feature extraction unit generates second position distribution data indicating the position distribution of a plurality of objects using the second image data (S609).
다음으로, 제2특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제2동작 데이터를 생성한다(S610).Next, the second feature extraction unit uses the second image data to generate second motion data indicating the movement of the motion object among the plurality of objects (S610).
다음으로, 제어부는 제1 동작 데이터와 제2 동작 데이터를 이용하여 제1기간과 제2기간을 구분한다(S611).Next, the control unit divides the first period and the second period using the first operation data and the second operation data (S611).
다음으로, 제어부는 제2 위치 분포 데이터 및 제2동작 데이터를 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성한다(S612).Next, the control unit compares the second position distribution data and the second motion data with the abnormal entity candidate data to generate abnormal entity data representing the abnormal entity (S612).
다음으로, 제어부는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제2영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S613).Next, the control unit controls pixel display for a plurality of blocks on the second image data according to the accumulated number of motion detections and non-detection motions of the abnormal object data (S613).
다음으로, 제어부는 이상 개체 데이터에 대한 알람을 외부로 출력한다(S614).Next, the control unit outputs an alarm regarding abnormal entity data to the outside (S614).
실시예에 따른 위치 분포 데이터 생성 및 동작 데이터를 생성하는 단계는 동시에 수행되거나, 어느 하나의 데이터 생성 과정이 먼저 이루어 질 수 있다. The steps of generating location distribution data and generating motion data according to the embodiment may be performed simultaneously, or either data generation process may be performed first.
실시예에 따른 위치 분포 데이터 생성 및 동작 데이터는 각각 별개의 동작을 병렬적으로 수행하여, 위치 분포 데이터와 동작 데이터를 생성하는 것으로서, 위치 분포 데이터를 이용하여 동작 데이터를 생성하거나 또는 동작 데이터를 이용하여 위치 분포 데이터를 생성하는 것은 아니다. Position distribution data generation and motion data according to the embodiment each generate position distribution data and motion data by performing separate operations in parallel, and motion data is generated using position distribution data or motion data is used. Therefore, it does not generate location distribution data.
상기 S601 내지 S614 단계는 단일 이상 개체 후보 데이터 및 단일 이상 개체 데이터를 생성하는 것으로 간략하게 도시되었으나, 이상 개체 후보 데이터 및 이상 개체 데이터는 이미지 촬영을 통한 영상 데이터 생성이 연속적으로 이루어짐에 따라 지속적으로 생성 및 업데이트 되어 픽셀 표시를 제어하도록 동작한다.Steps S601 to S614 are briefly shown as generating single abnormal entity candidate data and single abnormal entity data, but abnormal entity candidate data and abnormal entity data are continuously generated as image data is continuously generated through image capture. and updated to operate to control pixel display.
도7은 본 발명의 실시예에 따른 이상 개체 검출 방법의 순서도이다.Figure 7 is a flowchart of a method for detecting abnormal objects according to an embodiment of the present invention.
도7을 참고하면, 먼저 촬영부는 제1기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S701).Referring to Figure 7, first, the photographing unit captures images including a plurality of objects during the first period (S701).
다음으로, 촬영부는 복수 개체를 포함하는 이미지를 이용하여 제1영상 데이터를 생성한다. 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 촬영부는 제1기간 동안 순차적으로 촬영되는 이미지를 이용하여 복수개의 제1영상 데이터를 생성한다(S702).Next, the photographing unit generates first image data using an image including a plurality of objects. One image data may mean a single frame. The photographing unit generates a plurality of first image data using images sequentially photographed during the first period (S702).
실시예에 따른 영상 데이터는 N X M의 픽셀로 구성되는 영상 데이터일 수 있다.Image data according to an embodiment may be image data composed of N x M pixels.
다음으로, 제1특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성한다(S703).Next, the first feature extraction unit generates first position distribution data indicating the position distribution of a plurality of objects using the first image data (S703).
다음으로, 제2특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성한다(S704).Next, the second feature extraction unit uses the first image data to generate first motion data indicating the movement of a motion object among the plurality of objects (S704).
다음으로, 제어부는 제1 위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성한다(S705).Next, the control unit compares the first position distribution data and the first motion data to generate abnormal entity candidate data representing the abnormal entity candidate (S705).
다음으로, 제어부는 이상 개체 후보 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제1영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S706).Next, the control unit controls the pixel display of a plurality of blocks on the first image data according to the accumulated number of motion detections and the accumulated number of non-motion detections of the abnormal object candidate data (S706).
다음으로, 제어부는 이상 개체 후보가 검출된 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력한다(S707).Next, the control unit outputs a driving command to at least one of the feeder and waterer assigned to the area where the abnormal object candidate was detected (S707).
다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S708).Next, the photographing unit captures images including multiple objects during the second period (S708).
다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영하여 제2영상 데이터를 생성한다(S709).Next, the photographing unit captures images including a plurality of objects during the second period and generates second image data (S709).
다음으로, 제1특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성한다(S710).Next, the first feature extraction unit generates second position distribution data indicating the position distribution of a plurality of objects using the second image data (S710).
다음으로, 제2특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제2동작 데이터를 생성한다(S711).Next, the second feature extraction unit uses the second image data to generate second motion data indicating the movement of the motion object among the plurality of objects (S711).
다음으로, 제어부는 제2 위치 분포 데이터 및 제2동작 데이터를 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성한다(S712).Next, the control unit compares the second position distribution data and the second motion data with the abnormal entity candidate data to generate abnormal entity data representing the abnormal entity (S712).
다음으로, 제어부는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제2영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S713).Next, the control unit controls pixel display for a plurality of blocks on the second image data according to the accumulated number of motion detections and non-detection motions of the abnormal object data (S713).
다음으로, 제어부는 이상 개체 데이터에 대한 알람을 외부로 출력한다(S714).Next, the control unit outputs an alarm regarding abnormal entity data to the outside (S714).
실시예에 따른 위치 분포 데이터 생성 및 동작 데이터를 생성하는 단계는 동시에 수행되거나, 어느 하나의 데이터 생성 과정이 먼저 이루어 질 수 있다. The steps of generating location distribution data and generating motion data according to the embodiment may be performed simultaneously, or either data generation process may be performed first.
실시예에 따른 위치 분포 데이터 생성 및 동작 데이터는 각각 별개의 동작을 병렬적으로 수행하여, 위치 분포 데이터와 동작 데이터를 생성하는 것으로서, 위치 분포 데이터를 이용하여 동작 데이터를 생성하거나 또는 동작 데이터를 이용하여 위치 분포 데이터를 생성하는 것은 아니다. Position distribution data generation and motion data according to the embodiment each generate position distribution data and motion data by performing separate operations in parallel, and motion data is generated using position distribution data or motion data is used. Therefore, it does not generate location distribution data.
상기 S701 내지 S714 단계는 단일 이상 개체 후보 데이터 및 단일 이상 개체 데이터를 생성하는 것으로 간략하게 도시되었으나, 이상 개체 후보 데이터 및 이상 개체 데이터는 이미지 촬영을 통한 영상 데이터 생성이 연속적으로 이루어짐에 따라 지속적으로 생성 및 업데이트 되어 픽셀 표시를 제어하도록 동작한다.Steps S701 to S714 are briefly shown as generating single abnormal entity candidate data and single abnormal entity data, but abnormal entity candidate data and abnormal entity data are continuously generated as image data is continuously generated through image capture. and updated to operate to control pixel display.
도8은 본 발명의 실시예에 따른 이상 개체 검출 방법의 순서도이다.Figure 8 is a flowchart of a method for detecting abnormal objects according to an embodiment of the present invention.
도8을 참고하면, 먼저 촬영부는 제1기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S801).Referring to Figure 8, first, the photographing unit captures an image including a plurality of objects during the first period (S801).
다음으로, 촬영부는 복수 개체를 포함하는 이미지를 이용하여 제1영상 데이터를 생성한다. 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 촬영부는 제1기간 동안 순차적으로 촬영되는 이미지를 이용하여 복수개의 제1영상 데이터를 생성한다(S802).Next, the photographing unit generates first image data using an image including a plurality of objects. One image data may mean a single frame. The photographing unit generates a plurality of first image data using images sequentially photographed during the first period (S802).
실시예에 따른 영상 데이터는 N X M의 픽셀로 구성되는 영상 데이터일 수 있다.Image data according to an embodiment may be image data composed of N x M pixels.
다음으로, 제1특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성한다(S803).Next, the first feature extraction unit generates first position distribution data indicating the position distribution of a plurality of objects using the first image data (S803).
다음으로, 제2특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성한다(S804).Next, the second feature extraction unit uses the first image data to generate first motion data indicating the movement of the motion object among the plurality of objects (S804).
다음으로, 제어부는 제1 위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성한다(S805).Next, the control unit compares the first position distribution data and the first motion data to generate abnormal entity candidate data representing the abnormal entity candidate (S805).
다음으로, 제어부는 이상 개체 후보 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제1영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S806).Next, the control unit controls pixel display for a plurality of blocks on the first image data according to the accumulated number of motion detections and accumulated number of non-motion detections of the abnormal object candidate data (S806).
다음으로, 제어부는 이상 개체 후보 데이터를 이용하여 이상 개체 후보가 검출된 영역을 제외한 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력한다. 제어부는 이상 개체 후보가 검출되지 않은 영역의 주변에 위치한 급이기와 급수기만을 선별적으로 동작시킴으로써, 이상 개체 후보가 상대적으로 멀리 위치한 급이기, 급수기로 이동하는지 여부를 관찰할 수 있다(S807).Next, the control unit uses the abnormal entity candidate data to output a driving command to at least one of the feeder and waterer assigned to the area excluding the area where the abnormal entity candidate was detected. The control unit can observe whether the abnormal object candidate moves to a feeder or waterer located relatively far away by selectively operating only the feeders and waterers located around the area where the abnormal object candidate is not detected (S807).
다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S808).Next, the photographing unit captures images including multiple objects during the second period (S808).
다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영하여 제2영상 데이터를 생성한다(S809).Next, the photographing unit captures images including a plurality of objects during the second period and generates second image data (S809).
다음으로, 제1특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성한다(S810).Next, the first feature extraction unit generates second position distribution data indicating the position distribution of a plurality of objects using the second image data (S810).
다음으로, 제2특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제2동작 데이터를 생성한다(S811).Next, the second feature extraction unit uses the second image data to generate second motion data indicating the movement of the motion object among the plurality of objects (S811).
다음으로, 제어부는 제2 위치 분포 데이터 및 제2동작 데이터를 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성한다(S812).Next, the control unit compares the second position distribution data and the second motion data with the abnormal entity candidate data to generate abnormal entity data representing the abnormal entity (S812).
다음으로, 제어부는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제2영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S813).Next, the control unit controls pixel display for a plurality of blocks on the second image data according to the accumulated number of motion detections and non-detection motions of the abnormal object data (S813).
다음으로, 제어부는 이상 개체 데이터에 대한 알람을 외부로 출력한다(S814).Next, the control unit outputs an alarm regarding abnormal entity data to the outside (S814).
실시예에 따른 위치 분포 데이터 생성 및 동작 데이터를 생성하는 단계는 동시에 수행되거나, 어느 하나의 데이터 생성 과정이 먼저 이루어 질 수 있다. The steps of generating location distribution data and generating motion data according to the embodiment may be performed simultaneously, or either data generation process may be performed first.
실시예에 따른 위치 분포 데이터 생성 및 동작 데이터는 각각 별개의 동작을 병렬적으로 수행하여, 위치 분포 데이터와 동작 데이터를 생성하는 것으로서, 위치 분포 데이터를 이용하여 동작 데이터를 생성하거나 또는 동작 데이터를 이용하여 위치 분포 데이터를 생성하는 것은 아니다. Position distribution data generation and motion data according to the embodiment each generate position distribution data and motion data by performing separate operations in parallel, and motion data is generated using position distribution data or motion data is used. Therefore, it does not generate location distribution data.
상기 S801 내지 S814 단계는 단일 이상 개체 후보 데이터 및 단일 이상 개체 데이터를 생성하는 것으로 간략하게 도시되었으나, 이상 개체 후보 데이터 및 이상 개체 데이터는 이미지 촬영을 통한 영상 데이터 생성이 연속적으로 이루어짐에 따라 지속적으로 생성 및 업데이트 되어 픽셀 표시를 제어하도록 동작한다.Steps S801 to S814 are briefly shown as generating single abnormal entity candidate data and single abnormal entity data, but abnormal entity candidate data and abnormal entity data are continuously generated as image data is continuously generated through image capture. and updated to operate to control pixel display.
도9는 본 발명의 실시예에 따른 이상 개체 검출 방법의 순서도이다.Figure 9 is a flowchart of a method for detecting abnormal objects according to an embodiment of the present invention.
도9를 참고하면, 먼저 촬영부는 제1기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S901).Referring to Figure 9, first, the photographing unit captures an image including a plurality of objects during the first period (S901).
다음으로, 촬영부는 복수 개체를 포함하는 이미지를 이용하여 제1영상 데이터를 생성한다. 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 촬영부는 제1기간 동안 순차적으로 촬영되는 이미지를 이용하여 복수개의 제1영상 데이터를 생성한다(S902).Next, the photographing unit generates first image data using an image including a plurality of objects. One image data may mean a single frame. The photographing unit generates a plurality of first image data using images sequentially photographed during the first period (S902).
실시예에 따른 영상 데이터는 N X M의 픽셀로 구성되는 영상 데이터일 수 있다.Image data according to an embodiment may be image data composed of N x M pixels.
다음으로, 제1특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성한다(S903).Next, the first feature extraction unit generates first position distribution data indicating the position distribution of a plurality of objects using the first image data (S903).
다음으로, 제2특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성한다(S904).Next, the second feature extraction unit uses the first image data to generate first motion data indicating the movement of a motion object among the plurality of objects (S904).
다음으로, 제어부는 제1 위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성한다(S905).Next, the control unit compares the first position distribution data and the first motion data to generate abnormal entity candidate data representing the abnormal entity candidate (S905).
다음으로, 제어부는 이상 개체 후보 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제1영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S906).Next, the control unit controls pixel display for a plurality of blocks on the first image data according to the accumulated number of motion detections and accumulated number of non-motion detections of the abnormal object candidate data (S906).
다음으로, 제어부는 급이기 및 급수기 중 적어도 하나의 높이를 조절하는 구동 명령을 출력한다. 제어부는 이상 개체 후보가 검출된 영역에 할당된 급이기 및 급수기 중 적어도 하나의 높이를 조절하여 모이와 물의 섭취를 어렵게 하여 개체의 활동성을 증가시킬 수 있다(S907).Next, the control unit outputs a drive command to adjust the height of at least one of the feeder and the waterer. The control unit may increase the activity of the entity by adjusting the height of at least one of the feeders and waterers assigned to the area where the abnormal entity candidate was detected to make it difficult to consume feed and water (S907).
다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S908).Next, the photographing unit captures images including a plurality of objects during the second period (S908).
다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영하여 제2영상 데이터를 생성한다(S909).Next, the photographing unit captures images including a plurality of objects during the second period and generates second image data (S909).
다음으로, 제1특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성한다(S910).Next, the first feature extraction unit generates second position distribution data indicating the position distribution of a plurality of objects using the second image data (S910).
다음으로, 제2특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제2동작 데이터를 생성한다(S911).Next, the second feature extraction unit uses the second image data to generate second motion data indicating the movement of the motion object among the plurality of objects (S911).
다음으로, 제어부는 제2 위치 분포 데이터 및 제2동작 데이터를 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성한다(S912).Next, the control unit compares the second position distribution data and the second motion data with the abnormal entity candidate data to generate abnormal entity data representing the abnormal entity (S912).
다음으로, 제어부는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제2영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S913).Next, the control unit controls pixel display for a plurality of blocks on the second image data according to the accumulated number of motion detections and non-detection motions of the abnormal object data (S913).
다음으로, 제어부는 이상 개체 데이터에 대한 알람을 외부로 출력한다(S914).Next, the control unit outputs an alarm regarding abnormal entity data to the outside (S914).
실시예에 따른 위치 분포 데이터 생성 및 동작 데이터를 생성하는 단계는 동시에 수행되거나, 어느 하나의 데이터 생성 과정이 먼저 이루어 질 수 있다. The steps of generating location distribution data and generating motion data according to the embodiment may be performed simultaneously, or either data generation process may be performed first.
실시예에 따른 위치 분포 데이터 생성 및 동작 데이터는 각각 별개의 동작을 병렬적으로 수행하여, 위치 분포 데이터와 동작 데이터를 생성하는 것으로서, 위치 분포 데이터를 이용하여 동작 데이터를 생성하거나 또는 동작 데이터를 이용하여 위치 분포 데이터를 생성하는 것은 아니다. Position distribution data generation and motion data according to the embodiment each generate position distribution data and motion data by performing separate operations in parallel, and motion data is generated using position distribution data or motion data is used. Therefore, it does not generate location distribution data.
상기 S901 내지 S914 단계는 단일 이상 개체 후보 데이터 및 단일 이상 개체 데이터를 생성하는 것으로 간략하게 도시되었으나, 이상 개체 후보 데이터 및 이상 개체 데이터는 이미지 촬영을 통한 영상 데이터 생성이 연속적으로 이루어짐에 따라 지속적으로 생성 및 업데이트 되어 픽셀 표시를 제어하도록 동작한다.Steps S901 to S914 are briefly shown as generating single abnormal entity candidate data and single abnormal entity data, but abnormal entity candidate data and abnormal entity data are continuously generated as image data is continuously generated through image capture. and updated to operate to control pixel display.
도10은 본 발명의 실시예에 따른 이상 개체 검출 방법의 순서도이다.Figure 10 is a flowchart of a method for detecting abnormal objects according to an embodiment of the present invention.
도10을 참고하면, 먼저 촬영부는 제1기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S1001).Referring to Figure 10, first, the photographing unit captures an image including a plurality of objects during the first period (S1001).
다음으로, 촬영부는 복수 개체를 포함하는 이미지를 이용하여 제1영상 데이터를 생성한다. 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 촬영부는 제1기간 동안 순차적으로 촬영되는 이미지를 이용하여 복수개의 제1영상 데이터를 생성한다(S1002).Next, the photographing unit generates first image data using an image including a plurality of objects. One image data may mean a single frame. The photographing unit generates a plurality of first image data using images sequentially photographed during the first period (S1002).
실시예에 따른 영상 데이터는 N X M의 픽셀로 구성되는 영상 데이터일 수 있다.Image data according to an embodiment may be image data composed of N x M pixels.
다음으로, 제1특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성한다(S1003).Next, the first feature extraction unit generates first position distribution data representing the position distribution of a plurality of objects using the first image data (S1003).
다음으로, 제2특징 추출 유닛은 제1영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성한다(S1004).Next, the second feature extraction unit uses the first image data to generate first motion data indicating the movement of a motion object among the plurality of objects (S1004).
다음으로, 제어부는 제1 위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성한다(S1005).Next, the control unit compares the first position distribution data and the first motion data to generate abnormal entity candidate data representing the abnormal entity candidate (S1005).
다음으로, 제어부는 이상 개체 후보 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제1영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S1006).Next, the control unit controls pixel display for a plurality of blocks on the first image data according to the accumulated number of motion detections and the accumulated number of non-motion detections of the abnormal object candidate data (S1006).
다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영한다(S1007).Next, the photographing unit captures images including a plurality of objects during the second period (S1007).
다음으로, 촬영부는 제2기간 동안 복수 개체를 포함하는 이미지를 촬영하여 제2영상 데이터를 생성한다(S1008).Next, the photographing unit captures images including a plurality of objects during the second period and generates second image data (S1008).
다음으로, 제1특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성한다(S1009).Next, the first feature extraction unit generates second position distribution data indicating the position distribution of a plurality of objects using the second image data (S1009).
다음으로, 제2특징 추출 유닛은 제2 영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제2동작 데이터를 생성한다(S1010).Next, the second feature extraction unit uses the second image data to generate second motion data indicating the movement of the motion object among the plurality of objects (S1010).
다음으로, 제어부는 급이 영역 및 급수 영역 중 적어도 하나의 영역의 너비 변화를 통하여 이상 개체 데이터를 생성한다. 제어부는 제2기간 동안 동작하는 급이기 및 급수기의 위치를 통하여 이상 개체 후보 근처의 급이 영역 및 급수 영역을 판단하고, 해당 급이 영역 및 급수 영역의 너비 변화를 다른 급이 영역 및 급수 영역의 너비 변화와 비교하여 이상 개체 데이터를 생성한다(S1011).Next, the control unit generates abnormal entity data through a change in the width of at least one of the feeding area and the water supply area. The control unit determines the feeding area and water supply area near the abnormal object candidate through the positions of the feeder and water supply operating during the second period, and changes the width of the corresponding feeding area and water supply area to other feeding areas and water supply areas. Abnormal entity data is generated by comparing the width change (S1011).
다음으로, 제어부는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제2영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어한다(S1012).Next, the control unit controls pixel display for a plurality of blocks on the second image data according to the accumulated number of motion detections and non-detection motions of the abnormal object data (S1012).
다음으로, 제어부는 이상 개체 데이터에 대한 알람을 외부로 출력한다(S1013).Next, the control unit outputs an alarm regarding abnormal entity data to the outside (S1013).
실시예에 따른 위치 분포 데이터 생성 및 동작 데이터를 생성하는 단계는 동시에 수행되거나, 어느 하나의 데이터 생성 과정이 먼저 이루어 질 수 있다. The steps of generating location distribution data and generating motion data according to the embodiment may be performed simultaneously, or either data generation process may be performed first.
실시예에 따른 위치 분포 데이터 생성 및 동작 데이터는 각각 별개의 동작을 병렬적으로 수행하여, 위치 분포 데이터와 동작 데이터를 생성하는 것으로서, 위치 분포 데이터를 이용하여 동작 데이터를 생성하거나 또는 동작 데이터를 이용하여 위치 분포 데이터를 생성하는 것은 아니다. Position distribution data generation and motion data according to the embodiment each generate position distribution data and motion data by performing separate operations in parallel, and motion data is generated using position distribution data or motion data is used. Therefore, it does not generate location distribution data.
상기 S1001 내지 S1013 단계는 단일 이상 개체 후보 데이터 및 단일 이상 개체 데이터를 생성하는 것으로 간략하게 도시되었으나, 이상 개체 후보 데이터 및 이상 개체 데이터는 이미지 촬영을 통한 영상 데이터 생성이 연속적으로 이루어짐에 따라 지속적으로 생성 및 업데이트 되어 픽셀 표시를 제어하도록 동작한다.Steps S1001 to S1013 are briefly shown as generating single abnormal entity candidate data and single abnormal entity data, but abnormal entity candidate data and abnormal entity data are continuously generated as image data is continuously generated through image capture. and updated to operate to control pixel display.
도11은 본 발명의 실시예에 따른 학습용 서버의 구성 개념도이다. 도11의 이상 개체 검출 장치는 도2에 도시된 이상 개체 검출 장치와 동일한 구성을 포함할 수 있다. 학습 전처리부(120)는 촬영부(111)에 의하여 획득된 영상 데이터 중 학습용 서버(400)가 학습에 사용할 학습용 데이터를 추출한다. 학습 전처리부(120)가 학습 데이터를 추출하는 자세한 방법은 이하에서 설명한다. Figure 11 is a conceptual diagram of the configuration of a learning server according to an embodiment of the present invention. The abnormal object detection device of FIG. 11 may include the same configuration as the abnormal object detection device shown in FIG. 2 . The learning
도11 내지 도12를 참조하면, 이상 개체 검출 장치(100)는 촬영부(111)를 이용하여 복수의 개체가 함께 촬영된 영상에 대한 영상 데이터를 획득하며(S1200), 제어부(112)는 획득한 영상 데이터로부터 이상 개체 정보를 추출한다(S1202). 여기서, 하나의 영상 데이터는 단일 프레임을 의미할 수 있으며, 촬영부(111)는 순차적으로 촬영되는 영상을 이용하여 복수 개의 영상 데이터를 생성할 수 있다. 이때, 제어부(112)는 미리 저장된 알고리즘 및 이에 적용되는 파라미터를 이용하여 이상 개체 정보를 추출할 수 있다. 여기서, 미리 저장된 알고리즘은 영상 데이터 내에서 객체가 위치한다고 판단되는 영역을 표시하도록 학습된 제1 알고리즘 및 옵티컬 플로우(optical flow)를 활용하여 모션을 검출하도록 학습된 제2 알고리즘을 이용하여 객체 중 움직임이 없는 객체를 표시하는 알고리즘을 의미할 수 있다. 여기서, 제1 알고리즘은 객체가 존재하는 영역을 표시하는 알고리즘을 활용한 실시간 객체 검출 방법을 이용할 수 있다, 또는, 제1 알고리즘은 객체의 분포 정보, 즉 객체가 위치하는 영역의 밀도 정보를 나타내는 방법을 이용할 수도 있다. 도 13은 객체 밀도 예측 네트워크를 설명하기 위한 도면이다. 여기서, 객체 밀도 예측 네트워크는 객체가 위치하는 영역의 밀도 정보를 표시하도록 설계된 딥러닝 알고리즘의 한 예이다. 객체 밀도 예측 네트워크는 컨볼루션 네트워크(convolution network) 기반 학습 머신에 원본 영상을 입력한 후, 그레이 스케일의 확률 맵으로 나타낸 밀도 영상을 출력하는 알고리즘일 수 있다. 이에 따르면, 닭장과 같이 유사한 모양을 가진 객체가 높은 밀도로 수용된 사육장 환경에서도 이상 객체 정보를 용이하게 추출할 수 있다. Referring to FIGS. 11 and 12, the abnormal
객체 밀도 예측 네트워크는 원본 영상과 밀도 영상을 이용하여 학습될 수 있으며, 후술하는 도 17의 학습용 서버(Training server)에 의해 학습될 수 있다.The object density prediction network can be learned using the original image and the density image, and can be learned by the training server of FIG. 17, which will be described later.
도 13에서 도시된 바와 같이, 객체 밀도 예측 네트워크는 적어도 하나의 컨볼루션 네트워크(convolution network(layer))를 포함할 수 있다. As shown in FIG. 13, the object density prediction network may include at least one convolution network (layer).
컨볼루션 네트워크는 적어도 하나의 피쳐 맵(feature map(W))을 이용하여 영상의 특징점을 분류할수 있다. A convolutional network can classify feature points of an image using at least one feature map (W).
컨볼루션 네트워크는 적어도 하나의 풀러(pooler) 및/또는 액티베이터(activator)를 통해 객체 밀도 예측 네트워크의 성능을 개선할 수 있다.A convolutional network can improve the performance of an object density prediction network through at least one pooler and/or activator.
객체 밀도 예측 네트워크는 concatenator를 더 포함하며, concatenator는 적어도 하나의 컨볼루션 네트워크의 출력 결과를 연결하고(concatenate), 재배열하여 원본 영상의 특징점을 이용하여 객체의 밀도(분포) 정보를 출력할 수 있다.The object density prediction network further includes a concatenator, which concatenates and rearranges the output results of at least one convolutional network to output object density (distribution) information using feature points of the original image. there is.
도 17을 이용하여 후술할 학습용 서버(Training server)에서 적어도 하나의 피쳐 맵(feature map(W))은 객체의 밀도 정보를 출력할 수 있도록 훈련(trained(tuned))될 수 있다.In a training server, which will be described later using FIG. 17, at least one feature map (W) may be trained (tuned) to output density information of an object.
본 발명의 실시예에서, 밀도 영상은 원본 영상과 같거나 유사한 크기(Width x Highet)를 가지도록 객체 밀도 예측 네트워크가 구성되며, 각각의 픽셀(또는 블록)의 위치는 서로 대응되고, 밀도 영상의 픽셀의 값은 원본 영상의 대응 픽셀에 객체(예를들어 가금류)가 존재할 수 있는 확률을 나타낼 수 있다. 예를 들어, 원본 영상의 픽셀에 객체가 존재할 확률이 높은수록, 밀도 영상의 해당 픽셀의 값은 높은 값을 가질 수 있다. 또는 개체의 존재 여부만 나타내어, 개체가 존재할 때와 존재하지 않을 때 픽셀 값을 다르게 설정한다.In an embodiment of the present invention, an object density prediction network is configured so that the density image has the same or similar size (Width x Highet) as the original image, the positions of each pixel (or block) correspond to each other, and the density image The pixel value may represent the probability that an object (for example, a poultry) may exist in the corresponding pixel of the original image. For example, the higher the probability that an object exists in a pixel of the original image, the higher the value of the corresponding pixel in the density image may be. Or, it only indicates whether the object exists, and sets the pixel value differently when the object exists and when it does not.
이상 개체 검출 장치(100)의 통신부(113)는 제어부(112)가 획득한 이상 개체 정보를 관리자 단말(200)에게 전송하며(S1204), 관리자 단말(200)은 이상 개체 정보를 출력한다(S1206). 이에 따라, 관리자는 관리자 단말(200)에 출력된 이상 개체 정보를 인지할 수 있다. 여기서, 이상 개체 정보는 이상 개체 데이터와 혼용될 수 있다.The
도 14는 관리자 단말에 이상 개체 정보가 표시되는 예를 설명하기 도면이다. 관리자 단말(200)에는 도 14(c)와 같은 영상이 표시될 수 있다. 즉, 관리자 단말(200)에는 도 1(a)와 같이 촬영부(111)에 의하여 촬영된 원본 이미지와 도 14(b)와 같이 제어부(112)에 의하여 추출된 이상 개체 데이터를 정합한 영상이 표시될 수 있다. 여기서, 이상 개체 데이터는 닭 밀도 추정 이미지일 수 있으며, 유사밀도 8비트 그레이 이미지, 확률맵 또는 비트맵으로 표시될 수 있다. 이때, 이상 개체 데이터는 개체 별로 이상 확률을 표시한 데이터가 아니라, 영상 데이터 내 구분된 영역 별, 블록 별, 또는 픽셀 별로 해당되는 영역, 블록 또는 픽셀에서 개체, 몸통 또는 머리의 이상 확률을 나타내는 데이터이다.FIG. 14 is a diagram illustrating an example in which abnormal entity information is displayed on an administrator terminal. An image as shown in FIG. 14(c) may be displayed on the administrator terminal 200. That is, the administrator terminal 200 contains an image that matches the original image captured by the photographing
만약, 관리자 단말(200)에 노출된 이상 개체 정보에 오류가 있는 경우, 관리자는 관리자 단말(200)을 통하여 이상 개체 검출 장치(100)에게 피드백 정보를 전송할 수 있다(S1208). 예를 들어, 이상 개체가 아님에도 불구하고 이상 개체 검출 장치(100)가 이상 개체인 것으로 판단하거나, 이상 개체임에도 불구하고 이상 개체 검출 장치(100)가 정상 개체인 것으로 판단한 경우, 관리자 단말(200)은 이상 개체 정보에 오류가 있음을 알리는 피드백 정보를 이상 개체 검출 장치(100)에게 전송할 수 있다. 여기서, 피드백 정보는 이상 개체 정보 중 오류가 있는 시간 영역 및 공간 영역 중 적어도 하나를 포함할 수 있다. 오류가 있는 시간 영역 및 공간 영역은 관리자에 의하여 선택되거나 지정될 수 있으며, 관리자 단말(200)의 유저 인터페이스부를 통하여 입력될 수 있다. 예를 들어, 도 15(c)에서 예시한 바와 같이, 관리자 단말(200)이 화면(800) 내 4개의 영역에 대한 이상 개체 정보(802, 804, 806, 808)를 표시하며, 관리자가 4개 중 1개의 이상 개체 정보(예를 들어, 806)는 오류인 것으로 판단한 경우, 관리자가 유저 인터페이스를 통하여 오류인 이상 개체 정보(806)를 선택하여 피드백할 수 있다. 또는, 관리자 단말(200)이 출력한 화면 내에 이상 개체가 있음에도 불구하고 이상 개체 정보가 표시되지 않은 경우, 관리자는 이상 개체인 것으로 보이는 시간 영역 및 공간 영역을 지정하여 피드백할 수도 있다. If there is an error in the abnormal entity information exposed to the administrator terminal 200, the administrator may transmit feedback information to the abnormal
이상 개체 검출 장치(100)의 학습 전처리부(120)는 관리자 단말(200)로부터 수신한 피드백 정보를 이용하여 학습용 데이터를 추출하며(S1210), 추출한 학습용 데이터를 학습용 서버(400)에게 전송한다(S1212). The learning
여기서, 학습용 데이터는 단계 S1200에서 획득한 영상 데이터의 일부일 수 있다. 이상 개체 검출 장치(100)의 학습 전처리부(120)는 단계 S1200에서 획득한 영상 데이터 중 관리자 단말(200)로부터 수신한 피드백 정보에 포함된 시간 영역 및 공간 영역에 따라 영상 데이터를 추출할 수 있다. 예를 들어, 관리자 단말(200)이 n번째 프레임의 일부 영역(예, 도 15(c)의 806))에 오류가 있는 것으로 판단한 경우, 학습용 데이터는 n번째 프레임 중 일부 영역(예, 도 15(c)의 806)일 수 있다. 또는, 관리자 단말(200)이 전체 프레임 중 n번째 프레임에서 n+3번째 프레임의 이상 개체 데이터에 오류가 있는 것으로 판단한 경우, 학습용 데이터는 전체 프레임 중 n번째 프레임에서 n+3번째 프레임일 수 있다. 이에 따라, 이상 개체 검출 장치(100)는 촬영부(111)가 획득한 전체 영상 데이터 중 이상 개체 검출에 오류가 있는 영상 데이터만을 추출하여 학습용 서버(400)에게 전송할 수 있다. 이에 따라, 이상 개체 검출 장치(100)와 학습용 서버(400) 간 통신 트래픽이 현저히 줄어들 수 있다. 여기서, 학습용 데이터는, 추출된 영상 데이터뿐만 아니라, 오류 정보 및 정정 정보 중 적어도 하나를 더 포함할 수도 있다. 오류 정보는 제어부에 의한 판단이 잘못되었음을 알리는 정보이고, 정정 정보는 정정되어야 할 방향을 알리는 정보일 수 있다. 또는, 학습용 데이터는, 추출된 원본의 영상 데이터 및 오류가 정정된 후의 이상 개체 데이터를 포함할 수도 있다. 예를 들어, n번째 프레임 내지 n+3번째 프레임 내 일부 영역(예, 도 15(c)의 806)에 오류가 있는 것으로 판단된 경우, 학습용 데이터는 n번째 프레임 내지 n+3번째 프레임에 대한 원본의 영상 데이터 및 n번째 프레임 내지 n+3번째 프레임에 대한 이상 개체 데이터를 포함할 수 있으며, n번째 프레임 내지 n+3번째 프레임에 대한 이상 개체 데이터는 오류가 있는 것으로 판단된 일부 영역(예, 도 15(c)의 806)의 오류가 정정된 후의 그레이 이미지일 수 있다. 학습용 서버(400)는 이상 개체 검출 장치(100)로부터 수신한 학습용 데이터를 이용하여 재학습(retraining)하며(S1214), 이에 따라 이상 개체 검출을 위한 업데이트 정보를 이상 개체 검출 장치(100)에게 전송한다(S1216). 여기서, 업데이트 정보는 이상 개체 검출을 위한 알고리즘에 적용되는 파라미터일 수 있으며, 이는 조정 가능한 매트릭스(adjustable matrix) 형태일 수 있다.Here, the training data may be part of the image data acquired in step S1200. The learning
이후, 이상 개체 검출 장치(100)는 단계 S1200와 같이, 복수의 개체가 함께 촬영된 영상에 대한 영상 데이터를 획득하며(S1218), 제어부(112)는 미리 저장된 알고리즘 및 업데이트 정보를 이용하여 획득한 영상 데이터로부터 이상 개체 정보를 추출한다(S1220).Thereafter, the abnormal
이에 따라, 이상 개체 검출 장치(100)는 관리자 단말(200)의 피드백 정보를 반영하여 이상 개체를 검출할 수 있으며, 이상 개체 검출 장치(100)와 학습용 서버(400) 간의 통신 트래픽을 줄일 수 있다.Accordingly, the abnormal
학습용 서버(400)가 복수의 이상 개체 검출 장치(100)와 통신하는 경우, 학습용 서버(400)는 복수의 이상 개체 검출 장치(100)에게 동일한 업데이트 정보를 전송할 수 있다. 또는, 이상 개체 검출 장치(100) 마다 상이한 환경에 처해 있을 수 있으므로, 업데이트 정보는 이상 개체 검출 장치(100) 마다 특이적일 수도 있다. When the learning server 400 communicates with a plurality of abnormal
본 발명의 실시예에 따르면, 이상 개체 검출 장치(100)의 객체 밀도 예측 네트워크와 같은 알고리즘을 학습용 서버(400)도 저장하며, 학습용 서버(400)는 이를 이용하여 오류 데이터와 대응되는 원본 영상으로 재학습시키는 것이 바람직하다.According to an embodiment of the present invention, the learning server 400 also stores an algorithm such as the object density prediction network of the abnormal
이하, 본 발명의 실시예에 따른 이상 개체 검출 장치(100)가 이상 개체를 검출하는 방법을 설명한다.Hereinafter, a method for detecting an abnormal object by the abnormal
도 16은 본 발명의 실시예에 따른 이상 개체 검출 장치의 이상 개체 검출 알고리즘을 설명하는 도면이다.Figure 16 is a diagram explaining an abnormal object detection algorithm of the abnormal object detection device according to an embodiment of the present invention.
도16을 참조하면, 제1 특징 추출 유닛(600)은 촬영부(111)에 의하여 촬영된 영상에 대한 영상 데이터 내 복수의 개체의 위치 분포를 추출하고, 제2 특징 추출 유닛(602)은 영상 데이터 내 복수의 개체의 움직임을 추출한다. 그리고, 제어부(604)는 제1 특징 추출 유닛(600)에 의하여 추출된 위치 분포 및 제2 특징 추출 유닛(602)에 의하여 추출된 움직임에 기초하여 이상 개체 정보, 예를 들어 픽셀 별 이상 개체 확률을 추정한다.Referring to FIG. 16, the first feature extraction unit 600 extracts the location distribution of a plurality of objects in the image data for the image captured by the photographing
구체적으로, 제1 특징 추출 유닛(600)은 영상 데이터를 이용하여 복수의 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성할 수 있다. 여기서, 복수의 개체의 위치 분포는 위치 별 객체의 밀도 분포를 의미할 수 있으며, 위치 분포 데이터는 밀도 맵과 혼용될 수 있다. 전술한 바와 같이, 제1 특징 추출 유닛(600)은 영상 데이터 내에서 객체가 위치한다고 판단되는 영역을 제안하도록 학습된 제1 알고리즘, 즉 영역 제안 알고리즘을 활용한 실시간 객체 검출 방법을 이용할 수 있다. 제1 특징 추출 유닛(600)은 예를 들면, 복수의 개체를 포함하여 생성된 제1영상 데이터를 이용하여 복수의 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성하고, 복수의 개체를 포함하여 생성된 제2영상 데이터를 이용하여 복수의 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성할 수 있다. 여기서, 제1 위치 분포 데이터 및 제2 위치 분포 데이터는 시계열적으로 생성된 영상 데이터에 대한 위치 분포 데이터일 수 있다. Specifically, the first feature extraction unit 600 may generate position distribution data indicating the position distribution of a plurality of objects using image data. Here, the location distribution of a plurality of objects may mean the density distribution of objects for each location, and location distribution data may be used interchangeably with a density map. As described above, the first feature extraction unit 600 may use a real-time object detection method using a first algorithm learned to suggest a region in which an object is determined to be located within the image data, that is, a region proposal algorithm. For example, the first feature extraction unit 600 generates first position distribution data indicating the position distribution of the plurality of objects using first image data generated including the plurality of objects, and includes the plurality of objects. Second position distribution data representing the position distribution of a plurality of objects can be generated using the generated second image data. Here, the first position distribution data and the second position distribution data may be position distribution data for image data generated in time series.
본 발명의 실시예에서 위치 분포 데이터란, 개별 개체 위치를 표시하는 것이 아니라, 영상 데이터의 구분된 영역 또는 블록 별로 해당되는 영역 또는 블록에 개체, 몸통 또는 머리가 존재할 수 있는 확률을 나타내는 데이터이다. 위치 분포 데이터는 각 픽셀에 개체가 존재할 확률을 다른 색으로 표현하는 히트맵일 수 있다. In an embodiment of the present invention, position distribution data does not indicate the location of an individual object, but is data indicating the probability that an object, body, or head may exist in the corresponding area or block for each divided area or block of image data. Location distribution data may be a heatmap that expresses the probability that an object exists in each pixel in different colors.
또한, 제1 특징 추출 유닛(600)은 개체 검출 분류기를 이용하여 영상 데이터에서 동물 개체를 검출할 수 있다. 이때, 개체 검출 분류기는 동물 개체의 자세나 외부 환경을 달리하여 기촬영한 동물 개체의 영상들로부터 훈련 DB 를 구축하여 학습된 것으로서, 이러한 개체 검출 분류기는 SVM(Support Vector Machine), 신경망, AdaBoost 알고리즘 등을 포함하는 다양한 학습 알고리즘을 통해 동물 개체의 DB 를 생성한다. 구체적으로, 제1 특징 추출 유닛(600)은 기 촬영된 사육장 내 배경의 영상 데이터에서 전경에 해당하는 개체의 에지를 검출하고, 영상 데이터에서 검출된 전경 개체의 에지를 적용하고, 전경 개체의 에지가 적용된 영상 데이터의 영역에 개체 검출 분류기를 적용하여 동물 개체를 검출할 수 있다.Additionally, the first feature extraction unit 600 may detect animal entities from image data using an entity detection classifier. At this time, the object detection classifier is learned by building a training database from images of animal objects taken with different postures or external environments. This object detection classifier uses SVM (Support Vector Machine), neural network, and AdaBoost algorithm. A DB of animal entities is created through various learning algorithms, including: Specifically, the first feature extraction unit 600 detects the edge of an object corresponding to the foreground from the image data of the background in the previously photographed breeding farm, applies the edge of the foreground object detected in the image data, and extracts the edge of the foreground object. Animal objects can be detected by applying an object detection classifier to the area of the image data to which is applied.
제2 특징 추출 유닛(602)은 영상 데이터를 이용하여 복수의 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성할 수 있다. 여기서, 동작 데이터는 개별 개체의 움직임을 표시하는 것이 아니라, 영상 데이터의 구분된 영역 또는 블록 별로 해당되는 영역 또는 블록에 움직임이 존재했는지 여부를 나타내는 데이터이고, 동작 데이터는 동작 맵과 혼용될 수 있다. 동작 데이터는 픽셀 별로 해당되는 픽셀에 움직임이 존재했는지 여부를 나타내는 데이터일 수도 있다. 전술한 바와 같이, 제2 특징 추출 유닛(602)은 옵티컬 플로우(optical flow)를 활용하여 모션을 검출하도록 학습된 제2 알고리즘을 이용할 수 있다. 제2 특징 추출 유닛(602)은 단일 영상 데이터 또는 복수개의 연속된 영상 데이터를 이용하여 분포도 상의 특정 지점, 특정 개체 또는 특정 픽셀에서의 움직임을 검출할 수 있다.The second feature extraction unit 602 may use image data to generate motion data representing the movement of a motion object among a plurality of objects. Here, motion data does not indicate the movement of an individual object, but is data indicating whether motion was present in the corresponding region or block for each divided area or block of image data, and motion data can be used interchangeably with a motion map. . Motion data may be data indicating whether movement exists in the corresponding pixel for each pixel. As described above, the second feature extraction unit 602 may use a second algorithm learned to detect motion using optical flow. The second feature extraction unit 602 may detect movement at a specific point, specific object, or specific pixel on the distribution map using single image data or a plurality of continuous image data.
제2 특징 추출 유닛(602)은 예를 들면, 제1영상 데이터를 이용하여 복수의 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성하고, 제2 영상 데이터를 이용하여 복수의 개체 중 동작 개체의 움직임을 나타내는 제2 동작 데이터를 생성할 수 있다. 여기서, 제1 동작 데이터 및 제2 동작 데이터는 시계열적으로 생성된 복수 개의 영상 데이터에 대한 동작 데이터일 수 있다.For example, the second feature extraction unit 602 uses first image data to generate first motion data indicating the movement of a motion object among a plurality of objects, and uses the second image data to generate motion among a plurality of objects. Second motion data representing the movement of the object may be generated. Here, the first motion data and the second motion data may be motion data for a plurality of image data generated in time series.
제2 특징 추출 유닛(602)은 Dense Optical Flow방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 제2 특징 추출 유닛(602)은 영상 데이터 상의 모든 픽셀에 대해서 모션 벡터(Motion Vector)를 연산하여 각 픽셀에 대한 움직임을 검출할 수 있다. Dense Optical Flow방식의 경우 모든 픽셀에 대하여 모션 벡터를 연산하기 때문에 검출 정확도는 향상되지만 상대적으로 연산량은 증가하게 된다. 따라서, Dense Optical Flow방식은 이상상황이 발생된 것으로 의심되는 사육장이나 개체 숫자가 매우 많은 사육장 등 검출 정확도가 매우 높게 요구되는 특정 영역에 적용될 수 있다.The second feature extraction unit 602 can detect the movement of the moving object using the Dense Optical Flow method. The second feature extraction unit 602 may detect movement for each pixel by calculating a motion vector for all pixels in the image data. In the case of the Dense Optical Flow method, detection accuracy is improved because motion vectors are calculated for all pixels, but the amount of calculation is relatively increased. Therefore, the Dense Optical Flow method can be applied to specific areas that require very high detection accuracy, such as breeding farms where abnormal situations are suspected to have occurred or breeding farms with a very large number of individuals.
또는 제2 특징 추출 유닛(602)은 Sparse Optical Flow방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 제2 특징 추출 유닛(602)은 영상 내 에지와 같은 움직임 추적이 쉬운 특징적인 일부 픽셀에 대해서만 모션 벡터를 연산하여 움직임을 검출할 수 있다. Sparse Optical Flow방식은 연산량이 감소하지만 한정적인 픽셀에 대한 결과만 얻을 수 있다. 따라서, Sparse Optical Flow방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the second feature extraction unit 602 may detect the movement of the moving object using the Sparse Optical Flow method. The second feature extraction unit 602 may detect motion by calculating a motion vector only for some characteristic pixels that are easy to track motion, such as edges in the image. The Sparse Optical Flow method reduces the amount of computation, but results can only be obtained for a limited number of pixels. Therefore, the Sparse Optical Flow method can be applied to breeding grounds with a small number of individuals or to specific areas where individuals do not appear overlapping.
또는 제2 특징 추출 유닛(602)은 Block Matching을 이용하여 동작 개체의 움직임을 검출할 수 있다. 제2 특징 추출 유닛(602)은 영상을 균등하게 또는 비균등하게 분할하여 분할 영역에 대해 모션 벡터를 연산하여 움직임을 검출할 수 있다. Block Matching은 분할 영역별로 모션 벡터를 연산하기 때문에 연산량이 감소하지만 영역별 모션 벡터에 대한 결과를 산출하기 때문에 검출 정확도가 상대적으로 낮을 수 있다. 따라서, Block Matching방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the second feature extraction unit 602 may detect the movement of the moving object using block matching. The second feature extraction unit 602 may divide the image equally or unevenly and detect motion by calculating a motion vector for the divided area. Block Matching reduces the amount of computation because it calculates motion vectors for each segmented region, but detection accuracy may be relatively low because it calculates results for motion vectors for each region. Therefore, the Block Matching method can be applied to breeding farms with a small number of individuals or to specific areas where individuals do not appear overlapping.
또는 제2 특징 추출 유닛(602)은 Continuous Frame Difference 방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 제2 특징 추출 유닛(602)은 연속하는 영상 프레임을 픽셀 별로 비교하고, 그 차이만큼의 값을 연산하여 움직임을 검출할 수 있다. Continuous Frame Difference 방식은 프레임간 차이값을 이용하여 움직임을 검출하기 때문에, 전체적인 연산량은 감소하지만 부피가 큰 개체 또는 중복되어 나타나는 개체에 대한 검출 정확도가 상대적으로 낮을 수 있다. 또한, Continuous Frame Difference 방식은 배경 영상과 움직이지 않는 개체를 구분할 수 없어 정확도가 상대적으로 낮을 수 있다. 따라서, Continuous Frame Difference 방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the second feature extraction unit 602 may detect the movement of the moving object using the Continuous Frame Difference method. The second feature extraction unit 602 can detect motion by comparing consecutive image frames for each pixel and calculating a value equal to the difference. Since the Continuous Frame Difference method detects motion using the difference value between frames, the overall computational amount is reduced, but the detection accuracy for bulky objects or overlapping objects may be relatively low. Additionally, the Continuous Frame Difference method cannot distinguish between background images and non-moving objects, so its accuracy may be relatively low. Therefore, the Continuous Frame Difference method can be applied to breeding grounds with a small number of individuals or to specific areas where individuals do not appear overlapping.
또는 제2 특징 추출 유닛(602)은 Background Subtraction 방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 제2 특징 추출 유닛(602)은 배경 영상을 초기에 학습한 상태에서 연속하는 영상 프레임을 픽셀 별로 비교하고, 그 차이만큼의 값을 연산하여 움직임을 검출할 수 있다. Background Subtraction 방식은 배경 영상을 미리 학습하고 있기 때문에 배경 영상과 움직이지 않는 개체를 구분할 수 있다. 따라서, 배경 영상을 필터링하는 별도의 과정이 필요하여 연산량은 증가하지만 정확도는 향상된다. 따라서, Background Subtraction 방식은 이상상황이 발생된 것으로 의심되는 사육장이나 개체 숫자가 매우 많은 사육장 등 검출 정확도가 매우 높게 요구되는 특정 영역에 적용될 수 있다. Background Subtraction 방식에서 배경 영상은 지속적으로 업데이트 될 수 있다.Alternatively, the second feature extraction unit 602 may detect the movement of the moving object using the Background Subtraction method. The second feature extraction unit 602 may detect motion by comparing successive image frames for each pixel while initially learning the background image, and calculating a value equal to the difference. Because the Background Subtraction method learns the background image in advance, it can distinguish between the background image and non-moving objects. Therefore, a separate process for filtering the background image is required, which increases the amount of computation but improves accuracy. Therefore, the Background Subtraction method can be applied to specific areas that require very high detection accuracy, such as breeding farms where abnormal situations are suspected to have occurred or breeding farms with a very large number of individuals. In the Background Subtraction method, the background image can be continuously updated.
제2 특징 추출 유닛(602)은 사육장 내의 환경과 외부의 설정에 따라 적절한 방식을 이용하여 분포도 상에서 움직임을 검출한다. 위의 움직임 검출 방식은 예시일 뿐, 프레임 내 움직임이 발생한 영역(예를 들어 픽셀/블록)을 표시할 수 있는 방법들이 사용될 수 있다.The second feature extraction unit 602 detects movement on the distribution map using an appropriate method according to the environment within the breeding farm and external settings. The above motion detection method is only an example, and methods that can display the area (e.g., pixel/block) where movement occurred within the frame can be used.
제1 특징 추출 유닛(600)이 위치 분포 데이터를 생성하는 과정과 제2 특징 추출 유닛(602)이 동작 데이터를 생성하는 과정은 동시에 이루어지거나, 병렬적으로 이루어지거나, 순차적으로 이루어질 수 있다. 즉, 제1 특징 추출 유닛(600)이 위치 분포 데이터를 생성하는 과정과 제2 특징 추출 유닛(602)이 동작 데이터를 생성하는 과정은 서로 독립적으로 처리됨을 의미할 수 있다. The process of the first feature extraction unit 600 generating position distribution data and the process of the second feature extraction unit 602 generating motion data may be performed simultaneously, in parallel, or sequentially. That is, this may mean that the process of the first feature extraction unit 600 generating position distribution data and the process of the second feature extraction unit 602 generating motion data are processed independently of each other.
제어부(604)는 영상 데이터의 위치 분포 데이터 및 동작 데이터를 영역별, 블록 별 또는 픽셀 별로 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터 또는 이상 개체를 나타내는 이상 개체 데이터를 영역 별, 블록 별 또는 픽셀 별로 생성할 수 있다. The control unit 604 compares the position distribution data and motion data of the image data by region, block, or pixel, and selects abnormal object candidate data representing an abnormal object candidate or abnormal object data representing an abnormal object by region, block, or pixel. Stars can be created.
제어부(604)는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 영상 데이터 상에서 복수개의 개체에 대한 픽셀 표시를 제어할 수도 있다. 제어부(604)는 예를 들면, 이상 개체 데이터에 따라 영상 데이터 상에서 복수개의 블록에 대한 픽셀 표시를 제어할 수 있다. 여기서, 픽셀의 표시란 픽셀의 채도, 픽셀의 명암, 픽셀의 색상, 픽셀의 윤곽선, 마크 표시 등 임의의 지점에 대응되는 픽셀을 다른 픽셀과 구분하여 표시하기 위한 모든 개념을 포함할 수 있다. 본 발명의 실시예에서는 픽셀값의 조절을 통하여 픽셀의 표시를 제어할 수 있다. 픽셀값은 단계적으로 조절될 수 있으며, 픽셀값이 높은 픽셀의 경우, 픽셀값이 낮은 픽셀 보다 시각적으로 강조되어 표시될 수 있다. 그러나 이에 한정되는 것은 아니고, 픽셀값이 낮은 픽셀이 픽셀값이 높은 픽셀보다 강조되어 표시되는 것으로 설정할 수 있다. 여기서, 픽셀값은 픽셀 별 이상 개체 확률을 의미할 수 있다.The control unit 604 may control the display of pixels for a plurality of objects on the image data according to the accumulated number of motion detections and the accumulated number of non-motion detections of the abnormal object data. For example, the control unit 604 may control pixel display for a plurality of blocks on image data according to abnormal entity data. Here, pixel display may include all concepts for distinguishing and displaying a pixel corresponding to an arbitrary point from other pixels, such as pixel saturation, pixel brightness, pixel color, pixel outline, and mark display. In an embodiment of the present invention, the display of pixels can be controlled by adjusting pixel values. Pixel values can be adjusted in stages, and pixels with high pixel values can be displayed with greater visual emphasis than pixels with low pixel values. However, it is not limited to this, and pixels with low pixel values can be set to be displayed with greater emphasis than pixels with high pixel values. Here, the pixel value may mean the probability of an abnormal object for each pixel.
이하에서는 움직임이 검출된 픽셀과 개체를 동일시하여 설명하기 위하여 하나의 픽셀은 하나의 개체를 표현하는 것으로 한다. 이는 설명의 편의를 위한 것이며 실제로는 복수개의 픽셀이 하나의 개체를 표현하게 된다. 즉, 가금류의 일부 신체 영역의 움직임만을 검출하여 이상상황을 판단하기 위하여서는 픽셀별로 움직임을 검출하여 픽셀의 표시를 제어하는 방식이 사용될 것이다.Hereinafter, in order to explain the same thing as the pixel in which movement is detected and the object, one pixel is assumed to represent one object. This is for convenience of explanation, and in reality, multiple pixels represent one object. In other words, in order to determine an abnormal situation by detecting only the movement of some body regions of poultry, a method of detecting movement for each pixel and controlling the display of pixels will be used.
제어부(604)는 특정 개체의 움직임이 검출되지 않을수록 이상개체로 분류하고, 움직임이 검출될수록 정상개체로 분류하여 픽셀값을 다르게 표시할 수 있다.The control unit 604 may classify a specific object as an abnormal object the less movement is detected, classify it as a normal object as movement is detected, and display pixel values differently.
여기서, 제1 특징 추출 유닛(600), 제2 특징 추출 유닛(602) 및 제어부(604) 각각은 학습용 서버(400)로부터 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보를 수신할 수 있고, 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보 각각은 제1 특징 추출 유닛(600), 제2 특징 추출 유닛(602) 및 제어부(604) 각각에 적용될 수 있다. 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보는 이상 개체 검출 장치(100)에 의하여 전송된 학습용 데이터를 학습한 결과, 학습용 서버(400)가 추출한 업데이트 정보일 수 있다. 여기서, 학습용 데이터는 이상 개체 검출 장치(100)가 획득한 영상 데이터의 일부 및 오류가 정정된 이상 개체 데이터의 일부를 포함할 수 있으며, 이는 이상 개체 검출 장치(100)가 이상 개체 검출용 알고리즘을 구동하여 얻은 이상 개체 정보에 대한 관리자 단말(200)의 피드백 정보를 이용하여 얻어질 수 있다. 여기서, 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보 각각은 조정 가능한 매트릭스(adjustable matrix)를 포함할 수 있다. Here, the first feature extraction unit 600, the second feature extraction unit 602, and the control unit 604 may each receive first update information, second update information, and third update information from the learning server 400. And each of the first update information, second update information, and third update information may be applied to each of the first feature extraction unit 600, the second feature extraction unit 602, and the control unit 604. The first update information, second update information, and third update information may be update information extracted by the learning server 400 as a result of learning the learning data transmitted by the abnormal
도16을 참조하면, 먼저 n번째 영상 데이터를 획득한다. 여기서, 영상 데이터는, 예를 들어 W X H크기의 RGB데이터일 수 있다(S1601). 여기서, n번째 영상 데이터는 n번째 원본 데이터, n번째 원본 영상, n 번째 원본 영상 데이터 등과 혼용될 수 있다.Referring to Figure 16, first, the nth image data is acquired. Here, the image data may be, for example, RGB data of size W x H (S1601). Here, the nth image data can be used interchangeably with nth original data, nth original image, and nth original image data.
이상 개체 검출 장치(100)의 제어부(112), 예를 들어 제1 특징 추출 유닛(600)은 n번째 영상 데이터에서 개체를 검출하여 n번째 영상 데이터에 대한 개체의 위치 분포 데이터를 생성한다(S1602). 여기서, 위치 분포 데이터는 영역 별, 블록 별, 또는 픽셀 별로 생성될 수 있으며, 제어부(112)는 영상 데이터 내에서 객체가 위치한다고 판단되는 영역을 제안하도록 학습된 제1 알고리즘을 이용할 수 있다. 여기서, 제1 알고리즘은, 전술한 바와 같이 객체가 존재하는 영역을 표시하는 알고리즘을 활용한 실시간 객체 검출 방법을 이용할 수 있다, 또는, 제1 알고리즘은 객체의 분포 정보, 즉 객체가 위치하는 영역의 밀도 정보를 나타내는 방법을 이용할 수도 있다. 여기서, 위치 분포 데이터는 제1 밀도 맵일 수 있다. The
이하 설명에서는 영상 데이터의 픽셀 별 연산을 이용하여 이상 개체 데이터를 연산 또는 표시하는 방법을 설명한다. The following description explains a method of calculating or displaying abnormal object data using pixel-by-pixel calculation of image data.
위치 분포 데이터에는 업데이트 파라미터 μ값이 적용된다. 또는 업데이트 파라미터 μ값과 오프셋 파라미터 ε값이 동시에 적용될 수도 있다. μ는 아주 작은 값으로 예를 들어 0.001일 수 있다. 즉, 위치 분포 데이터가 오랫 동안 누적이 되어야만 서서히 픽셀에 표시되도록 제어하는 것이다. offset parameter ε는 위치 분포 데이터의 누적을 조정하는 parameter로서 μ대비 1/10~1/100의 값을 가질 수 있다(S1603). The update parameter μ value is applied to the location distribution data. Alternatively, the update parameter μ value and the offset parameter ε value may be applied simultaneously. μ may be a very small value, for example 0.001. In other words, position distribution data is controlled to be gradually displayed in pixels only when it is accumulated over a long period of time. The offset parameter ε is a parameter that adjusts the accumulation of position distribution data and can have a value of 1/10 to 1/100 of μ (S1603).
이상 개체 검출 장치(100)의 제어부(112), 예를 들어 제2 특징 추출 유닛(602)은 n-1번째 영상 데이터와 n번째 영상 데이터를 비교하여 n번째 영상 데이터에 대한 개체의 움직임을 검출한다. 이 때, n-1번째 영상 데이터는 래치회로 또는 버퍼회로에 저장되어 있을 수 있다. 이상 개체 검출 장치(100)의 제2 특징 추출 유닛(602)는 검출한 움직임에 따라 동작 데이터를 생성한다(S1604). 여기서, 동작 데이터는 동작 맵일 수 있다. 여기서, 동작 데이터는 영역 별, 블록 별 또는 픽셀 별로 생성될 수 있으며, 제어부(112)는 옵티컬 플로우(optical flow)를 활용하여 모션을 검출하도록 학습된 제2 알고리즘(motion detector)을 이용할 수 있다. 동작 데이터에는 업데이트 파라미터 κ가 적용될 수 있다. κ는 동작 데이터의 누적을 조정하는 파라미터이다(S1605). The
이상 개체 검출 장치(100)의 제어부(112), 예를 들어 제어부(604)는 n번째 영상 데이터의 위치 분포 데이터에 n-1번째 이상 개체 데이터를 합하고(S1606), n번째 영상 데이터의 동작 데이터를 감하여 n번째 영상 데이터에 대한 이상 개체 데이터를 생성한다(S1607). 여기서, n번째 영상 데이터에 대한 이상 개체 데이터는 n번째 이상 개체 밀도 맵일 수 있다.The
본 발명의 실시예에 따른 이상 개체 검출 장치(100)는 S1601 내지 S1607과정을 반복하여 움직임이 검출된 개체의 색상은 연하게 또는 원본 색상에 가깝게 표시하고, 움직임이 누적하여 검출되지 않은 개체의 색상은 진하게 또는 빨간 색상에 가깝게 표시하도록 제어할 수 있다. The abnormal
이후, n번째 이상 개체 데이터는 n번째 영상 데이터, 즉 n번째 원본 데이터 상에 정합될 수 있으며, n번째 원본 데이터 상에 n번째 이상 개체 데이터가 정합된 영상이 관리자 단말(200)에 표시될 수 있다. 즉, n번째 영상 내 이상 개체가 위치한 영역은 n번째 이상 개체 밀도 맵을 이용하여 마스킹될 수 있으며, 마스킹된 영상이 관리자 단말(200)에 표시될 수 있다. Thereafter, the nth or higher object data may be matched to the nth image data, that is, the nth original data, and an image in which the nth or higher object data is matched to the nth original data may be displayed on the administrator terminal 200. there is. That is, the area where the abnormal object is located in the nth image can be masked using the nth abnormal object density map, and the masked image can be displayed on the administrator terminal 200.
본 발명의 실시예에 따른 이상 개체 검출 장치(100)의 동작은 아래와 같은 수학식 1을 적용할 수 있다.Equation 1 below can be applied to the operation of the abnormal
수학식 1에서 μ는 업데이트 파라미터로 설정에 따라 변경될 수 있다. In Equation 1, μ is an update parameter and can be changed depending on settings.
수학식 1에서 Pixelt, Pixelt -1은 이상 개체 데이터로서, 이상 개체의 존재 여부를 픽셀에 표시하기 위한 값으로서 픽셀의 농도를 의미할 수 있다. 이상 개체가 존재할 확률이 높은 픽셀일수록 더 진한 색으로 표시할 수 있도록 하는 것이다. 예를 들어, 이상 개체가 존재할 확률이 없으면 원색(하얀색)으로 표시되고, 이상 개체가 존재할 확률이 높을수록 빨강색에 가깝게 표현하고, 이상 개체가 존재할 확률이 아주 높다고 판단되면 가장 진한 빨강색으로 표시되게 하는 것이다. 따라서, Pixelt, Pixelt -1은 0에서 1 사이의 값을 가지도록 설정할 수 있으며, 0에 가까울수록 원색(하얀색)에 가깝게 표시되고, 1에 가까울수록 빨강색으로 표시된다.In Equation 1, Pixel t and Pixel t -1 are abnormal object data, and may mean the density of the pixel as a value for indicating the presence or absence of the abnormal object in the pixel. Pixels with a higher probability of an abnormal object being present are displayed in a darker color. For example, if there is no probability that an abnormal entity exists, it is displayed in primary color (white); the higher the probability that an abnormal entity exists, the closer to red it is displayed; if it is determined that the probability of an abnormal entity existing is very high, it is displayed in the darkest red. It is to make it happen. Therefore, Pixel t and Pixel t -1 can be set to have a value between 0 and 1. The closer it is to 0, the closer it is to the primary color (white), and the closer it is to 1, the more it is displayed in red.
수학식 1에서 Pixelt - 1는 위치 분포 데이터 및 동작 데이터가 누적된 직전 프레임의 이상 개체 데이터이다. 수학식 1에서 Pixelt는 현재 프레임의 위치분포 데이터와 동작 데이터를 적용하여 업데이트된 이상 개체 데이터이다.In Equation 1, Pixel t - 1 is abnormal object data of the previous frame in which position distribution data and motion data were accumulated. In Equation 1, Pixelt is abnormal object data updated by applying the position distribution data and motion data of the current frame.
수학식 1에서 Wt는 현재 프레임의 위치 분포 데이터일 수 있다. 위치 분포 데이터는 해당 픽셀에 개체가 존재하는지 확률로서 0에서 1 사이의 값을 가질 수 있다. 위치 분포 데이터에는 update parameter μ가 적용될 수 있다. μ는 아주 작은 값으로 예를 들어 0.001일 수 있다. 즉, 위치 분포 데이터가 오랫 동안 누적이 되어야만 서서히 픽셀에 표시되도록 제어하는 것이다. In Equation 1, W t may be position distribution data of the current frame. Location distribution data is the probability that an object exists in the corresponding pixel and can have a value between 0 and 1. The update parameter μ can be applied to location distribution data. μ may be a very small value, for example 0.001. In other words, position distribution data is controlled to be gradually displayed in pixels only when it is accumulated over a long period of time.
수학식 1에서 Ft 는 현재 프레임의 동작 데이터일 수 있다. 동작 데이터는 모션 벡터의 절대값을 산출한 것으로서 0 이상의 값을 가질 수 있다. 모션 벡터의 크기는 개체의 속도에 대응되므로 1이상의 값을 가질 수 있다. 동작 데이터에는 별도의 파라미터 를 반영하지 않아 해당 픽셀에서 동작이 검출된 경우에는 해당 픽셀의 표시는 초기화가 되도록 제어한다.In Equation 1, F t may be motion data of the current frame. The motion data is calculated from the absolute value of the motion vector and may have a value of 0 or more. The size of the motion vector corresponds to the speed of the object, so it can have a value greater than 1. No separate parameters are reflected in the motion data, so when motion is detected in the pixel, the display of the pixel is controlled to be initialized.
즉, 현재 프레임의 이상 개체 데이터는 이상 개체 존재 확률(Pixelt)을 포함하며, 이상 개체 존재 확률(Pixelt)은 이전 프레임의 영상 데이터로부터 생성된 이상 개체 데이터의 이상 개체 존재 확률(Pixelt -1), 현재 프레임의 영상 데이터로부터 생성된 위치 분포 데이터의 개체 존재 확률(Wt) 및 현재 프레임의 영상 데이터로부터 생성된 동작 데이터의 움직임 값(Ft)을 이용하여 산출될 수 있다.That is, the abnormal object data of the current frame includes the abnormal object presence probability (Pixelt), and the abnormal object presence probability (Pixel t ) is the abnormal object presence probability (Pixel t -1 ) of the abnormal object data generated from the video data of the previous frame. ), the entity presence probability (Wt) of the location distribution data generated from the image data of the current frame, and the motion value (Ft) of the motion data generated from the image data of the current frame.
또는 실시예에 따른 이상 개체 검출 장치의 동작은 아래와 같은 수학식 2를 적용할 수 있다.Alternatively, Equation 2 below can be applied to the operation of the abnormal object detection device according to the embodiment.
※μ: update parameter, ε: offset parameter※μ: update parameter, ε: offset parameter
수힉식2는 수학식1에서 offset parameter ε가 추가된 것으로 수학식1과 동일한 설명은 생략한다. offset parameter ε는 위치 분포 데이터의 누적을 조정하는 parameter로서 μ대비 1/10~1/100의 값을 가질 수 있다. Equation 2 is an offset parameter ε added to Equation 1, and the same explanation as Equation 1 is omitted. The offset parameter ε is a parameter that adjusts the accumulation of position distribution data and can have a value of 1/10 to 1/100 of μ.
또는 실시예에 따른 이상 개체 검출 장치의 동작은 아래와 같은 수학식 3또는 수학식 4를 적용할 수 있다.Alternatively, Equation 3 or Equation 4 below can be applied to the operation of the abnormal object detection device according to the embodiment.
※μ: update parameter, ε: offset parameter, κ: update parameter※μ: update parameter, ε: offset parameter, κ: update parameter
수학식3 또는 수학식4는 동작 데이터 Ft에 update parameter κ를 곱한 것으로서 수학식1 및 수학식2와 동일한 내용은 생략한다. constant κ는 동작 데이터의 누적을 조정하는 parameter이다.Equation 3 or Equation 4 is the operation data Ft multiplied by the update parameter κ, and the same contents as Equation 1 and Equation 2 are omitted. Constant κ is a parameter that adjusts the accumulation of motion data.
또는 실시예에 따른 이상 개체 검출 장치의 동작은 아래와 같은 수학식 5를 적용할 수 있다.Alternatively, Equation 5 below can be applied to the operation of the abnormal object detection device according to the embodiment.
수학식5는 수학식1,2,3 또는 4의 값이 0 이하로 떨어지는 것을 방지하기 위한 수식이다. 예를들어 동작 데이터(Ft)의 크기가 다른 파라미터 값의 합보다 크게 되어, 수학식1,2,3 또는 4의 값이 0보다 작은 음수가 될 경우 이를 보정하여 0으로 표시될 수 있도록 보정하는 제어 방법이다.Equation 5 is a formula to prevent the value of Equation 1, 2, 3, or 4 from falling below 0. For example, if the size of the motion data (F t ) becomes larger than the sum of other parameter values, and the value of Equation 1, 2, 3, or 4 becomes a negative number less than 0, correct it so that it is displayed as 0. This is a control method.
도 17은 학습용 서버에 의하여 재학습된 결과를 이용하여 본 발명의 실시예에 따른 이상 개체 검출 장치가 이상 개체를 검출하는 방법을 설명하는 도면이다. FIG. 17 is a diagram illustrating a method in which an abnormal object detection device according to an embodiment of the present invention detects an abnormal object using results re-trained by a learning server.
도17을 참조하면, S1701 내지 S1707과정 동안 학습용 서버(400)로부터 수신한 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보가 적용될 수 있다. 제1 업데이트 정보, 제2 업데이트 정보 및 제3 업데이트 정보를 얻기 위하여, 본 발명의 실시예에 따른 이상 개체 검출 장치(100)는 학습용 데이터를 추출하여 학습용 서버(400)에 전송할 수 있다. 이때, 학습용 데이터는 이상 개체 검출 장치(100)가 획득한 영상 데이터의 일부를 포함할 수 있으며, 이는 이상 개체 검출 장치(100)가 이상 개체 검출을 위한 알고리즘을 구동하여 추출한 이상 개체 정보에 대한 피드백 정보를 이용하여 얻어질 수 있다. 여기서, 피드백 정보는 관리자 단말(200)에 의하여 수정된 정보를 포함할 수 있다. Referring to Figure 17, the first update information, second update information, and third update information received from the learning server 400 during processes S1701 to S1707 may be applied. In order to obtain the first update information, the second update information, and the third update information, the abnormal
더욱 구체적으로, 도 17(a)를 참조하면, 본 발명의 실시예에 따른 이상 개체 검출 장치(100)는 학습용 데이터를 추출하여 학습용 서버(400)에 전송할 수 있으며, 학습용 서버(400)는 이상 개체 검출 장치(100)로부터 수신한 학습용 데이터를 이용하여 객체 밀도 예측 네트워크를 재학습(retraining), 즉 업데이트할 수 있다. 여기서, 학습용 데이터는 오류가 있는 것으로 지시된 영상 데이터 및 오류가 정정된 이상 개체 데이터를 포함할 수 있다. 예를 들어, n 번째 프레임 내 일부 영역(806)에 이상 개체가 존재하지 않음에도 불구하고 이상 개체가 존재하는 것으로 검출된 경우, 학습용 데이터는 n번째 프레임의 영상 데이터 및 n번째 프레임의 이상 개체 데이터 중 일부 영역(806)의 오류가 정정된 이상 개체 데이터를 포함할 수 있다. 여기서, 오류가 정정된 이상 개체 데이터는 관리자 단말(200)에 의하여 개체의 밀도가 수정된 정보일 수 있으며, 이상 개체 검출 장치(100)가 추출한 영역 별, 블록 별 또는 픽셀 별 개체의 밀도 분포를 제1 밀도 맵이라 하는 경우, 관리자 단말(200)에 의하여 수정된 영역 별, 블록 별 또는 픽셀 별 개체의 밀도 분포는 제2 밀도 맵이라 지칭할 수 있다. 학습용 서버(400)는 학습용 서버(400) 내 객체 밀도 예측 네트워크의 출력 영상과 학습용 데이터에 포함된 오류가 정정된 영상, 즉 정답 영상을 비교하여 손실(loss)을 구하고, 해당 손실을 최소화 하도록 학습기(trainer)에서 객체 밀도 예측 network의 변수들(예를 들어, feature map 등)을 학습(보정)할 수 있다.More specifically, referring to FIG. 17(a), the abnormal
이후, 도 17(b)를 참조하면, 이상 개체 검출 장치(100)의 제어부(112)는 위치 분포 데이터를 생성하는 단계, 즉 S1702에서, 학습용 서버(400)에 의하여 재학습된 객체 밀도 네트워크를 이용할 수 있다. 즉, 이상 개체 검출 장치(100)의 제어부(112)는 학습용 서버(400)로부터 학습용 데이터, 예를 들어 n번째 영상 및 제2 밀도 맵을 이용한 재학습에 의하여 얻어진 업데이트 정보를 이용하여 n번째 영상 이후의 소정 영상에 대한 이상 개체 밀도 맵을 출력할 수 있다. Thereafter, referring to FIG. 17(b), the
본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.The term '~unit' used in this embodiment refers to software or hardware components such as FPGA (field-programmable gate array) or ASIC, and the '~unit' performs certain roles. However, '~part' is not limited to software or hardware. The '~ part' may be configured to reside in an addressable storage medium and may be configured to reproduce on one or more processors. Therefore, as an example, '~ part' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. The functions provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'. Additionally, components and 'parts' may be implemented to regenerate one or more CPUs within a device or a secure multimedia card.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the present invention has been described above with reference to preferred embodiments, those skilled in the art may make various modifications and changes to the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that you can do it.
Claims (15)
상기 생성된 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성하는 제2특징 추출 유닛; 및
제1기간 동안 생성된 제1위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체 후보를 나타내는 이상 개체 후보 데이터를 생성하고, 제2기간 동안에 생성된 제2위치 분포 데이터 및 제2동작 데이터를 상기 이상 개체 후보 데이터와 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 제어부를 포함하며,
상기 제1기간은 급이 및 급수가 진행되지 않는 기간이고, 상기 제2기간은 급이 및 급수 중 적어도 하나가 진행되는 기간인 이상 개체 검출 장치.
a first feature extraction unit that generates position distribution data indicating the position distribution of the plurality of objects using image data generated from an image including the plurality of objects;
a second feature extraction unit that generates motion data indicating movement of a motion object among the plurality of objects using the generated image data; and
Abnormal entity candidate data representing an abnormal entity candidate is generated by comparing the first location distribution data and the first motion data generated during the first period, and the second position distribution data and the second motion data generated during the second period are It includes a control unit that generates abnormal entity data representing an abnormal entity by comparing it with abnormal entity candidate data,
The first period is a period in which feeding and water supply are not in progress, and the second period is a period in which at least one of feeding and water supply is in progress.
상기 이상 개체 후보 데이터는 상기 제1 위치 분포 데이터에서 상기 개체의 존재 확률이 있으면서 상기 제1동작 데이터상에서 움직임이 검출되지 않은 블록의 집합을 포함하고,
상기 이상 개체 데이터는 상기 이상 개체 후보 중 상기 제2 위치 분포 데이터에서 상기 개체의 존재 확률이 있으면서 상기 제2동작 데이터상에서 움직임이 검출되지 않은 블록의 집합을 포함하는 이상 개체 검출 장치.
In paragraph 1.
The abnormal entity candidate data includes a set of blocks in which there is a probability of existence of the entity in the first location distribution data and no movement is detected in the first motion data,
The abnormal object data includes a set of blocks among the abnormal object candidates in which there is a probability of existence of the object in the second position distribution data but no movement is detected in the second motion data.
상기 제어부는 급이 및 급수 타임 테이블 또는 상기 제1 동작 데이터와 상기 제2 동작 데이터를 통하여 상기 제1기간과 상기 제2기간을 구분하는 이상 개체 검출 장치.
According to paragraph 1,
The control unit is an abnormal object detection device that distinguishes the first period and the second period through a feeding and watering time table or the first operation data and the second operation data.
상기 제어부는 상기 이상 개체 후보 데이터를 이용하여 이상 개체 후보가 검출된 경우 상기 제1기간과 상기 제2기간 사이에 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력하는 이상 개체 검출 장치.
According to paragraph 1,
The control unit outputs a driving command to at least one of a feeder and a waterer between the first period and the second period when an abnormal entity candidate is detected using the abnormal entity candidate data.
상기 제어부는 상기 이상 개체 후보 데이터를 이용하여 상기 이상 개체 후보가 검출된 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력하는 이상 개체 검출 장치.
According to clause 4,
An abnormal object detection device wherein the control unit uses the abnormal object candidate data to output a driving command to at least one of a feeder and a waterer assigned to an area where the abnormal object candidate is detected.
상기 제어부는 상기 이상 개체 후보 데이터를 이용하여 상기 이상 개체 후보가 검출된 영역을 제외한 영역에 할당된 급이기 및 급수기 중 적어도 하나로 구동 명령을 출력하는 이상 개체 검출 장치.
According to clause 4,
The control unit uses the abnormal object candidate data to output a driving command to at least one of a feeder and a waterer assigned to an area excluding the area where the abnormal object candidate was detected.
상기 제1특징 추출 유닛은 제2기간 동안 생성된 영상 데이터로부터 급이 영역 및 급수 영역중 적어도 하나의 영역을 검출하는 이상 개체 검출 장치.
According to paragraph 1,
An abnormal object detection device wherein the first feature extraction unit detects at least one area of a feeding area and a water supply area from image data generated during a second period.
상기 제어부는 상기 급이 영역 및 급수 영역 중 적어도 하나의 영역의 너비 변화를 통하여 상기 이상 개체 데이터를 생성하는 이상 개체 검출 장치.
In clause 7,
The control unit generates the abnormal object data through a change in the width of at least one of the feeding area and the water supply area.
상기 제어부는 상기 급이기 및 급수기 중 적어도 하나의 높이를 조절하는 구동 명령을 출력하는 이상 개체 검출 장치.According to any one of claims 4 to 6,
An abnormal object detection device wherein the control unit outputs a driving command to adjust the height of at least one of the feeder and the waterer.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180083564A KR102606062B1 (en) | 2018-07-18 | 2018-07-18 | Apparatus and method for detecting abnormal object and imaging device comprising the same |
PCT/KR2019/008268 WO2020017799A1 (en) | 2018-07-18 | 2019-07-05 | Device and method for detecting abnormal object, and imaging device comprising same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180083564A KR102606062B1 (en) | 2018-07-18 | 2018-07-18 | Apparatus and method for detecting abnormal object and imaging device comprising the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200009335A KR20200009335A (en) | 2020-01-30 |
KR102606062B1 true KR102606062B1 (en) | 2023-11-24 |
Family
ID=69164936
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180083564A KR102606062B1 (en) | 2018-07-18 | 2018-07-18 | Apparatus and method for detecting abnormal object and imaging device comprising the same |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102606062B1 (en) |
WO (1) | WO2020017799A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102522239B1 (en) * | 2020-11-19 | 2023-04-17 | 인트플로우 주식회사 | Apparatus and method for analyzing feeding behavior of livestock based on image |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100411655B1 (en) | 2000-11-09 | 2003-12-18 | 대한제당 주식회사 | a system for managing livestock breeding farm using internet and method thereof |
KR101445698B1 (en) * | 2013-03-27 | 2014-10-06 | 한국로봇융합연구원 | Real Time Auto Medical Examination Method and Domestic Animal Auto Care System thereof |
KR101714976B1 (en) | 2016-06-22 | 2017-03-09 | 신민준 | Apparatus for monitoring a cattle shed based on augmented reality |
KR101995755B1 (en) * | 2019-03-12 | 2019-10-01 | 누리꿈소프트(주) | System for predicting domestic animal disease |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100312311B1 (en) * | 1998-07-28 | 2001-12-12 | 윤종용 | Detailed information display method by measurement value trace on graph |
KR101098867B1 (en) * | 2009-06-22 | 2011-12-26 | 순천대학교 산학협력단 | System for providing stable management and method therefor |
JP5771039B2 (en) * | 2011-03-30 | 2015-08-26 | セコム株式会社 | Abandoned person detection device |
JP2015069253A (en) * | 2013-09-27 | 2015-04-13 | 株式会社リコー | Individual condition determination device, individual condition determination method, and individual condition determination program |
KR20150080863A (en) * | 2014-01-02 | 2015-07-10 | 삼성테크윈 주식회사 | Apparatus and method for providing heatmap |
KR20160078089A (en) * | 2014-12-24 | 2016-07-04 | 고려대학교 산학협력단 | Detection method for abnormal object on farm, managing method and system for the same |
KR101768450B1 (en) * | 2015-04-30 | 2017-08-17 | 건국대학교 글로컬산학협력단 | Method for determining health of livestock using thermal imaging |
KR20200002314A (en) * | 2018-06-29 | 2020-01-08 | 엘지이노텍 주식회사 | System, terminal and method for managing farm environment |
-
2018
- 2018-07-18 KR KR1020180083564A patent/KR102606062B1/en active IP Right Grant
-
2019
- 2019-07-05 WO PCT/KR2019/008268 patent/WO2020017799A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100411655B1 (en) | 2000-11-09 | 2003-12-18 | 대한제당 주식회사 | a system for managing livestock breeding farm using internet and method thereof |
KR101445698B1 (en) * | 2013-03-27 | 2014-10-06 | 한국로봇융합연구원 | Real Time Auto Medical Examination Method and Domestic Animal Auto Care System thereof |
KR101714976B1 (en) | 2016-06-22 | 2017-03-09 | 신민준 | Apparatus for monitoring a cattle shed based on augmented reality |
KR101995755B1 (en) * | 2019-03-12 | 2019-10-01 | 누리꿈소프트(주) | System for predicting domestic animal disease |
Also Published As
Publication number | Publication date |
---|---|
WO2020017799A1 (en) | 2020-01-23 |
KR20200009335A (en) | 2020-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111225558B (en) | Long-term and continuous animal behavior monitoring | |
US11350610B2 (en) | Rearing place management device and method | |
JP2017146957A (en) | Augmenting layer-based object detection with deep convolutional neural networks | |
KR101944374B1 (en) | Apparatus and method for detecting abnormal object and imaging device comprising the same | |
US12014541B2 (en) | Device for managing environment of breeding farm | |
KR102615986B1 (en) | Apparatus and method for determining abnormal object | |
KR102609461B1 (en) | Imaging device, apparatus and method for managing of fowl comprising the same | |
JP6989294B2 (en) | Monitoring system and monitoring method | |
US20200234079A1 (en) | Methods and systems for processing image data | |
KR20200002315A (en) | System, terminal and method for managing farm environment | |
KR20200002314A (en) | System, terminal and method for managing farm environment | |
KR20200139616A (en) | Apparatus and method for detecting abnormal objects | |
KR20200009530A (en) | System and method for detecting abnormal object | |
KR102505691B1 (en) | Apparatus and method for detecting abnormal object and imaging device comprising the same | |
KR102606062B1 (en) | Apparatus and method for detecting abnormal object and imaging device comprising the same | |
KR102349851B1 (en) | System and method for providing multi-object recognition service using camera for pet | |
KR102424098B1 (en) | Drone detection apparatus using deep learning and method thereof | |
KR102492066B1 (en) | Mobile preventive warning system | |
KR102307609B1 (en) | Apparatus and method for detecting abnormal object and imaging device comprising the same | |
KR20190113360A (en) | Apparatus and method for detecting abnormal object and imaging device comprising the same | |
KR20230123226A (en) | Noise Reduction of Surveillance Camera Image Using Object Detection Based on Artificial Intelligence | |
KR102609804B1 (en) | Apparatus and method for detecting abnormal object and imaging device comprising the same | |
KR102619829B1 (en) | Apparatus and method for detecting abnormal object and imaging device comprising the same | |
KR20190114529A (en) | System and method for detecting abnormal object | |
KR20190113361A (en) | Apparatus, system and method for detecting abnormal object, and imaging device comprising the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |