KR102307609B1 - Apparatus and method for detecting abnormal object and imaging device comprising the same - Google Patents

Apparatus and method for detecting abnormal object and imaging device comprising the same Download PDF

Info

Publication number
KR102307609B1
KR102307609B1 KR1020190008170A KR20190008170A KR102307609B1 KR 102307609 B1 KR102307609 B1 KR 102307609B1 KR 1020190008170 A KR1020190008170 A KR 1020190008170A KR 20190008170 A KR20190008170 A KR 20190008170A KR 102307609 B1 KR102307609 B1 KR 102307609B1
Authority
KR
South Korea
Prior art keywords
data
motion
pixel
image data
abnormal
Prior art date
Application number
KR1020190008170A
Other languages
Korean (ko)
Other versions
KR20190098048A (en
Inventor
김일봉
류승훈
신제용
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180017177A external-priority patent/KR101944374B1/en
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020190008170A priority Critical patent/KR102307609B1/en
Publication of KR20190098048A publication Critical patent/KR20190098048A/en
Application granted granted Critical
Publication of KR102307609B1 publication Critical patent/KR102307609B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Mining
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

본 발명의 실시예에 따르면, 복수 개체를 포함하는 이미지로부터 생성된 영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성하는 데이터 처리부; 상기 생성된 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성하는 모션 검출부; 및 상기 위치 분포 데이터 및 상기 동작 데이터를 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 제어부를 포함하며, 상기 위치 분포 데이터는 상기 영상 데이터상에서 픽셀별로 개체의 존재 여부가 확률로서 표시된 데이터이고, 상기 동작 데이터는 상기 영상 데이터상에서 픽셀별로 움직임 존재 여부가 표시된 데이터이고, 상기 제어부는 상기 위치 분포 데이터에서 상기 개체의 존재 여부 확률을 누적하여 해당 픽셀의 픽셀값에 적용하되, 상기 동작 데이터에서 움직임이 존재하는 픽셀과 동일 위치에 있는 픽셀은 초기화하여 상기 이상 개체 데이터를 생성하는 이상 개체 검출 장치를 제공한다.According to an embodiment of the present invention, there is provided a data processing unit comprising: a data processing unit generating position distribution data representing a position distribution of a plurality of entities by using image data generated from an image including a plurality of entities; a motion detection unit generating motion data representing a motion of a motion object among the plurality of objects by using the generated image data; and a controller for generating abnormal entity data indicating an abnormal entity by comparing the position distribution data and the motion data, wherein the position distribution data is data in which the presence or absence of an entity is indicated as a probability for each pixel on the image data, and The motion data is data indicating whether motion exists for each pixel on the image data, and the controller accumulates the probability of the existence of the object from the location distribution data and applies it to the pixel value of the corresponding pixel, wherein motion is present in the motion data Provided is an anomaly detection apparatus for generating the abnormal entity data by initializing a pixel at the same position as a pixel.

Description

이상 개체 검출 장치 및 방법, 이를 포함하는 촬상 장치{APPARATUS AND METHOD FOR DETECTING ABNORMAL OBJECT AND IMAGING DEVICE COMPRISING THE SAME}Apparatus and method for detecting anomaly, and imaging device including the same

본 발명의 실시예는 이상 개체 검출 장치 및 방법, 이를 포함하는 촬상 장치에 관한 것이다.Embodiments of the present invention relate to an apparatus and method for detecting an abnormal object, and an imaging device including the same.

축산물에 대한 소비가 늘어나면서, 가축을 효율적으로 관리하는 방법에 대한 다양한 방안들이 제안되고 있다.As the consumption of livestock products increases, various measures are being proposed on how to efficiently manage livestock.

종래에는 사람이 각각의 가축의 상태를 파악하여, 이상 징후가 나타나는 가축에 대하여 진료를 받게 하거나 따로 격리시켰다. 다만, 가축의 수가 많은 경우 모든 가축을 관리하기 위해서는 많은 인력이 필요하다는 문제점이 있었다.In the prior art, a person identified the state of each livestock, and the animals showing abnormal symptoms were treated or quarantined separately. However, when the number of   livestock is large, there is a problem that a large number of manpower is required to manage all   livestock.

또한, 일부 가축에 전염병이 발생하면 가축의 대부분이 폐사하는 결과가 초래될 수 있으므로, 가축의 이상 여부를 빠르고 정확하게 판단할 수 있는 방안이 요구되고 있다.In addition, if an infectious disease occurs in some   livestock,   most of the livestock may die, so a method that can quickly and accurately determine whether an animal is abnormal is required.

또한, 교통 수단의 발달로 인하여 특정 지역에서 발생된 질병은 특정한 장소에 한정되지 않고 전국적으로 빠른 시간 내에 전염되는 현실에서 초기에 빠른 질병 판단이 요구되고 있다. 가축의 질병 판단에 있어서 발열에 따른 온도측정 방식이 질병 유무 판단의 기준으로 활용되고 있다. 그러나 많은 가축에 대한 일률적인 온도측정이 이루어지기 때문에, 가축 개체 각각의 상태에 따른 질병 판단에 대한 어려움이 있다. 또한, 이러한 온도 측정에 의한 질병 판단 방식은 질병 발생 초기 단계에 개체를 검출하는데에 어려움이 있다.In addition, due to the development of transportation means, diseases that have occurred in a specific area are not limited to a specific place and are spread nationwide within a short period of time. In judging the disease   of livestock, the temperature measurement method according to the fever is used as a criterion for judging the presence or absence of disease. However, since uniform temperature measurements are made for many animals, there is a difficulty in judging diseases and diseases according to the state of each individual. In addition, this method of determining a disease by measuring temperature has difficulty in detecting an individual at an early stage of disease development.

본 발명이 이루고자 하는 기술적 과제는 사육장 내부를 촬영한 영상 데이터 상에서 질병에 걸린 가능성이 높은 개체를 검출할 수 있는 이상 개체 검출 장치 및 방법, 이를 포함하는 촬상 장치를 제공하는데 있다.An object of the present invention is to provide an apparatus and method for detecting an abnormal object capable of detecting an object with a high probability of having a disease on image data photographed inside a kennel, and an imaging apparatus including the same.

본 발명의 실시예에 따르면, 복수 개체를 포함하는 이미지로부터 생성된 영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성하는 데이터 처리부; 상기 생성된 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성하는 모션 검출부; 및 상기 위치 분포 데이터 및 상기 동작 데이터를 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 제어부를 포함하며, 상기 위치 분포 데이터는 상기 영상 데이터상에서 픽셀별로 개체의 존재 여부가 확률로서 표시된 데이터이고, 상기 동작 데이터는 상기 영상 데이터상에서 픽셀별로 움직임 존재 여부가 표시된 데이터이고, 상기 제어부는 과거 개체의 존재 여부 확률에 상기 픽셀별로 개체의 존재 여부가 확률로서 표시된 데이터를 추가로 반영하여 상기 위치 분포 데이터상의 해당 픽셀의 픽셀값에 적용하되, 상기 동작 데이터에서 움직임이 존재하는 픽셀과 동일 위치에 있는 픽셀은 초기화하여 상기 이상 개체 데이터를 생성하는 이상 개체 검출 장치를 제공한다.According to an embodiment of the present invention, there is provided a data processing unit comprising: a data processing unit generating position distribution data representing a position distribution of a plurality of entities by using image data generated from an image including a plurality of entities; a motion detection unit generating motion data representing a motion of a motion object among the plurality of objects by using the generated image data; and a controller for generating abnormal entity data indicating an abnormal entity by comparing the position distribution data and the motion data, wherein the position distribution data is data in which the presence or absence of an entity is indicated as a probability for each pixel on the image data, and The motion data is data indicating whether a motion exists for each pixel on the image data, and the controller additionally reflects data indicating the existence of an object as a probability for each pixel in the past probability of existence of the object, and the corresponding data on the location distribution data Provided is an anomaly detection apparatus that generates the abnormal entity data by initializing a pixel at the same position as a moving pixel in the motion data by applying it to a pixel value of a pixel.

상기 제어부는 초기화 된 픽셀을 상기 영상 데이터상의 원색으로 표시할 수 있다.The controller may display the initialized pixel as a primary color on the image data.

상기 제어부는 상기 픽셀값이 누적될수록 해당 픽셀을 강조하여 표시할 수 있다.As the pixel values are accumulated, the controller may highlight and display the corresponding pixel.

상기 제어부는 하기 수학식 1에 따라 상기 이상 개체 데이터를 생성할 수 있다.The controller may generate the abnormal entity data according to Equation 1 below.

[수학식1][Equation 1]

Pixelt = Pixelt-1(1-μ) + μWt - Ft Pixel t = Pixel t-1 (1-μ) + μW t - F t

(수학식 1에서, Pixelt는 현재 프레임의 이상 개체 데이터이고, Pixelt -1은 이전 프레임의 이상 개체 데이터이고, μ는 update parameter, Wt는 현재 프레임의 위치 분포 데이터, Ft 는 현재 프레임의 동작 데이터이다)(In Equation 1, Pixel t is the abnormal object data of the current frame, Pixel t -1 is the abnormal object data of the previous frame, μ is the update parameter, W t is the position distribution data of the current frame , F t is the current frame operation data of

본 발명의 실시예에 따르면, 복수 개체를 포함하는 이미지를 촬영하여 영상 데이터를 생성하는 촬영부; 상기 영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성하는 데이터 처리부; 상기 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성하는 모션 검출부; 및 상기 위치 분포 데이터 및 상기 동작 데이터를 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 제어부를 포함하며, 상기 위치 분포 데이터는 상기 영상 데이터상에서 픽셀별로 개체의 존재 여부가 확률로서 표시된 데이터이고, 상기 동작 데이터는 상기 영상 데이터상에서 픽셀별로 움직임 존재 여부가 표시된 데이터이고, 상기 제어부는 과거 개체의 존재 여부 확률에 상기 픽셀별로 개체의 존재 여부가 확률로서 표시된 데이터를 추가로 반영하여 상기 위치 분포 데이터상의 해당 픽셀의 픽셀값에 적용하되, 상기 동작 데이터에서 움직임이 존재하는 픽셀과 동일 위치에 있는 픽셀은 초기화하여 상기 이상 개체 데이터를 생성하는 촬상 장치를 제공한다.According to an embodiment of the present invention, a photographing unit for generating image data by photographing an image including a plurality of objects; a data processing unit for generating position distribution data representing a position distribution of the plurality of objects by using the image data; a motion detection unit generating motion data representing a motion of a motion object among the plurality of objects by using the image data; and a controller for generating abnormal entity data indicating an abnormal entity by comparing the position distribution data and the motion data, wherein the position distribution data is data in which the presence or absence of an entity is indicated as a probability for each pixel on the image data, and The motion data is data indicating whether a motion exists for each pixel on the image data, and the controller additionally reflects data indicating the existence of an object as a probability for each pixel in the past probability of existence of the object, and the corresponding data on the location distribution data Provided is an imaging device that generates the abnormal object data by initializing a pixel at the same position as a pixel having motion in the motion data by applying it to a pixel value of a pixel.

상기 제어부는 초기화 된 픽셀을 상기 영상 데이터상의 원색으로 표시할 수 있다.The controller may display the initialized pixel as a primary color on the image data.

상기 제어부는 상기 픽셀값이 누적될수록 해당 픽셀을 강조하여 표시할 수 있다.As the pixel values are accumulated, the controller may highlight and display the corresponding pixel.

본 발명의 실시예에 따르면, 복수 개체를 포함하는 이미지를 촬영하여 영상 데이터를 생성하는 단계; 상기 영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성하는 단계; 상기 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성하는 단계; 및 상기 위치 분포 데이터 및 상기 동작 데이터를 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 단계를 포함하며, 상기 위치 분포 데이터는 상기 영상 데이터상에서 픽셀별로 개체의 존재 여부가 확률로서 표시된 데이터이고, 상기 동작 데이터는 상기 영상 데이터상에서 픽셀별로 움직임 존재 여부가 표시된 데이터이고, 상기 이상 개체 데이터를 생성하는 단계는, 과거 개체의 존재 여부 확률에 상기 픽셀별로 개체의 존재 여부가 확률로서 표시된 데이터를 추가로 반영하여 상기 위치 분포 데이터상의 해당 픽셀의 픽셀값에 적용하되, 상기 동작 데이터에서 움직임이 존재하는 픽셀과 동일 위치에 있는 픽셀은 초기화하여 상기 이상 개체 데이터를 생성하는 이상 개체 검출 방법을 제공한다.According to an embodiment of the present invention, generating image data by photographing an image including a plurality of objects; generating position distribution data representing the position distribution of the plurality of objects by using the image data; generating motion data representing a motion of a motion object among the plurality of objects by using the image data; and generating abnormal entity data indicating an abnormal entity by comparing the position distribution data and the motion data, wherein the position distribution data is data in which the existence of an entity is indicated as a probability for each pixel on the image data, and the The motion data is data indicating whether a motion exists for each pixel on the image data, and the generating of the abnormal entity data includes additionally reflecting data indicating the existence of an entity as a probability for each pixel in the past probability of existence of the entity and applying to the pixel value of the corresponding pixel on the position distribution data, but initializing the pixel in the same position as the moving pixel in the motion data to generate the abnormal entity data.

초기화 된 픽셀을 상기 영상 데이터상의 원색으로 표시하는 단계를 더 포함할 수 있다.The method may further include displaying the initialized pixels as primary colors on the image data.

상기 픽셀값이 누적될수록 해당 픽셀을 강조하여 표시하는 단계를 더 포함할 수 있다.The method may further include emphasizing and displaying a corresponding pixel as the pixel values are accumulated.

본 발명인 이상 개체 검출 장치 및 방법, 이를 포함하는 촬상 장치는 사육장 내부를 촬영한 영상데이터 상에서 질병에 걸린 가능성이 높은 이상 개체를 검출할 수 있다.An apparatus and method for detecting an abnormal object according to the present invention, and an imaging device including the same, can detect an abnormal object having a high probability of contracting a disease from image data captured inside a kennel.

또한, 이상 개체와 정상 개체를 시각적으로 구분하여 표시할 수 있다.In addition, abnormal objects and normal objects can be visually distinguished and displayed.

또한, 이상 개체를 추적하여 감시할 수 있다.In addition, abnormal objects can be tracked and monitored.

또한, 이상 개체 발생시 관리자에게 알림 또는 경고를 송출할 수 있다.In addition, when an abnormal object occurs, a notification or warning can be sent to the administrator.

또한, 분석 데이터의 연산량을 감소시키고, 연산 속도를 향상시킬 수 있다.In addition, it is possible to reduce the amount of calculation of the analysis data and improve the calculation speed.

도 1은 본 발명의 실시예에 따른 사육장 관리 시스템의 개념도이다.
도 2는 본 발명의 실시예에 따른 촬상 장치의 블록도이다.
도 3 내지 도 15는 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다.
도 16 내지 도 17은 본 발명의 실시예에 따른 이상 개체 검출 방법의 순서도이다.
1 is a conceptual diagram of a kennel management system according to an embodiment of the present invention.
2 is a block diagram of an imaging device according to an embodiment of the present invention.
3 to 15 are diagrams for explaining the operation of the control unit according to an embodiment of the present invention.
16 to 17 are flowcharts of a method for detecting an anomaly according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated and described in the drawings. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.

제2, 제1 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms including an ordinal number such as second, first, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the second component may be referred to as the first component, and similarly, the first component may also be referred to as the second component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being “connected” or “connected” to another component, it is understood that the other component may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is mentioned that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

이하, 첨부된 도면을 참조하여 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, the embodiment will be described in detail with reference to the accompanying drawings, but regardless of the reference numerals, the same or corresponding components are given the same reference numerals, and the overlapping description thereof will be omitted.

도 1은 본 발명의 실시예에 따른 사육장의 개념도이고, 도 2는 본 발명의 실시예에 따른 촬상 장치의 블록도이다. 1 is a conceptual diagram of a kennel according to an embodiment of the present invention, and FIG. 2 is a block diagram of an imaging device according to an embodiment of the present invention.

도 1 내지 2를 참조하면, 먼저 사육장(10)은 가축을 사육하는 축사를 의미한다. 가축은 닭, 오리 등의 가금류뿐만 아니라, 소, 돼지 등 축사 내에서 집단으로 사육되는 다양한 종류의 동물일 수 있다.1 and 2 , first, the breeding house 10 means a barn for breeding livestock. Livestock may be various types of animals raised in a group in a barn, such as cattle and pigs, as well as poultry such as chickens and ducks.

촬상 장치(100)는 사육장(10) 내의 환경을 검출하고, 이를 관리 서버(200) 및 공조 장치(300) 중 적어도 하나에 전송할 수 있다. 이를 위하여, 촬상 장치(100)는 관리 서버(200) 및 공조 장치(300)와 유선 또는 무선으로 통신할 수 있다. 여기서, 촬상 장치(100)가 관리 서버(200) 및 공조 장치(300)와 각각 통신하는 것으로 도시되어 있으나, 이로 제한되지 않으며, 촬상 장치(100)가 관리 서버(200)와 통신하고, 관리 서버(200)가 공조 장치(300)와 통신할 수도 있다. The imaging device 100 may detect the environment in the breeding ground 10 and transmit it to at least one of the management server 200 and the air conditioner 300 . To this end, the imaging device 100 may communicate with the management server 200 and the air conditioner 300 by wire or wirelessly. Here, although the imaging device 100 is illustrated as communicating with the management server 200 and the air conditioner 300 respectively, it is not limited thereto, and the imaging device 100 communicates with the management server 200 , and the management server 200 may communicate with the air conditioner 300 .

사육장(10) 내에는 복수개의 촬상 장치가 배치될 수 있다. 촬상 장치(100)는 촬영부(111)에서 촬영한 영상 데이터를 관리 서버(200)로 전송할 수 있다. 또는, 사육장(10)내에는 별도의 데이터 수집장치(150)가 배치되어 복수개의 촬상 장치(100)로부터 영상 데이터를 수집하여 관리 서버(200)로 전송할 수 있다. 사육장(10) 내부의 상태를 정밀하게 분석하기 위하여 촬상 장치(100)의 영상 데이터는 고화질, 고용량의 특성을 가질 수 있다. 따라서, 복수개의 촬상 장치(100)에서 촬영된 영상 데이터를 실시간으로 원격의 관리 서버(200)로 전송하기 위하여서는 큰 대역폭이 요구될 수 있으며, 이에 따라 전송 속도가 저하될수 있다. 따라서, 별도의 데이터 수집장치(150)에서는 사육장(10)내의 촬상 장치(100)로부터 영상 데이터를 수집하여 인코딩한 후 관리 서버(200)로 전송함으로써 통신 대역폭을 저감시키고, 전송 속도를 향상시킬 수 있다. 또는 촬상 장치(100)는 영상 데이터를 이용하여 사육장(10)상태를 분석하기 위한 1차 분석을 수행한 후, 가공된 데이터를 데이터 수집장치에 전달하거나 또는 관리 서버(200)에 전송할 수 있다. 즉, 촬상 장치(100)는 사육장(10)의 상태 분석을 위하여 필요한 데이터만을 선별하여 데이터 수집장치(150)에 전달하거나 또는 관리 서버(200)에 전송함으로써 통신 자원을 효율적으로 관리할 수 있다. 또는 촬상 장치(100)는 사육장(10)을 촬영한 영상 데이터를 이용하여 사육장(10) 내부 상태를 1차적으로 분석하여 그 결과를 데이터 수집장치(150)에 전달하거나 또는 관리 서버(200)에 전송할 수 있다.A plurality of imaging devices may be disposed in the kennel 10 . The imaging device 100 may transmit image data captured by the photographing unit 111 to the management server 200 . Alternatively, a separate data collection device 150 may be disposed in the breeding ground 10 to collect image data from a plurality of imaging devices 100 and transmit it to the management server 200 . In order to precisely analyze the state of the inside of the kennel 10 , the image data of the imaging device 100 may have high-quality and high-capacity characteristics. Accordingly, a large bandwidth may be required to transmit the image data captured by the plurality of imaging devices 100 to the remote management server 200 in real time, and accordingly, the transmission speed may be reduced. Therefore, the separate data collection device 150 collects and encodes image data from the imaging device 100 in the kennel 10 and transmits it to the management server 200, thereby reducing the communication bandwidth and improving the transmission speed. have. Alternatively, the imaging device 100 may perform a primary analysis for analyzing the state of the breeding house 10 using the image data, and then transmit the processed data to the data collection device or the management server 200 . That is, the imaging device 100 can efficiently manage communication resources by selecting only data necessary for the state analysis of the breeding ground 10 and transmitting it to the data collection device 150 or the management server 200 . Alternatively, the imaging device 100 primarily analyzes the internal state of the kennel 10 using image data captured by the kennel 10 and transmits the result to the data collection device 150 or to the management server 200 . can be transmitted

관리 서버(200)는 퍼스널 컴퓨터(personal computer, PC), 태블릿 PC, 휴대단말 등을 포함하는 서버일 수 있다. 촬상 장치(100)가 관리 서버(200)에게 사육장(10) 내의 환경을 전송하는 경우, 관리자는 관리 서버(200)에 출력된 화면 등을 통하여 사육장(10) 내의 환경을 인지할 수 있다. 예를 들어, 촬상 장치(100)가 사육장(10) 내의 이상상황을 포착하여 이를 관리 서버(200)에게 전송한 경우, 관리자는 관리 서버(200)에 출력된 화면을 통하여 사육장(10) 내에 이상상황이 발생하였음을 인지할 수 있으며, 이상상황에 대하여 초기에 대응할 수 있다. 여기서, 이상상황은, 예를 들어 질병에 걸린 가축의 발생, 가축의 임신, 가축의 생장 기간, 사육장(10) 내 습도, 온도, 특정 분자의 농도 이상 등일 수 있다. The management server 200 may be a server including a personal computer (PC), a tablet PC, a portable terminal, and the like. When the imaging device 100 transmits the environment in the kennel 10 to the management server 200 , the manager may recognize the environment in the kennel 10 through a screen output to the management server 200 . For example, when the imaging device 100 captures an abnormal situation in the kennel 10 and transmits it to the management server 200 , the manager can detect the abnormal situation in the kennel 10 through the screen output to the management server 200 . It can recognize that a situation has occurred and can respond to an abnormal situation at an early stage. Here, the abnormal situation may be, for example, the occurrence of diseased livestock, the pregnancy of the livestock, the growth period of the livestock, the humidity in the breeding house 10 , the temperature, the concentration of a specific molecule or the like.

관리 서버(200)가 복수의 사육장(10)으로부터 정보를 전송 받는 중앙 서버일 경우에 관리자는 관리 서버(200)와이 접근성이 용이하지 않을 수 있다. 이런 경우 관리 서버(200)는 별도의 관리자의 휴대단말 등을 통하여 사육장(10) 내에 이상상황에 대한 정보를 전달 할 수 있다.When the management server 200 is a central server that receives information from a plurality of breeding grounds 10 , the manager may not have easy access to the management server 200 . In this case, the management server 200 may transmit information about the abnormal situation in the breeding ground 10 through a separate manager's portable terminal.

또한, 관리 서버(200)는 촬상 장치(100) 또는 데이터 수집장치(150)에서 전송한 데이터를 이용하여 사육장 상태를 분석할 수 있다. 예를 들면, 관리 서버(100)는 복수개의 촬상 장치(100) 또는 데이터 수집장치(150)에서 1차적으로 가공된 데이터를 수신하여 사육장 상태에 대한 보다 정밀한 분석을 수행할 수 있다. 관리 서버(200)는 촬상 장치(100)의 통신부(115)와 데이터 통신을 수행하거나 또는 데이터 수집장치(150)에 장착된 통신 모듈(미도시)과 데이터 통신을 수행할 수 있다. 관리 서버(200)는 촬상 장치(100)에서 촬영한 원본 영상과 1차적으로 가공된 가공 영상 데이터를 수신할 수 있다. 이 때, 가공 영상 데이터는 사육장 관리 장치(100) 또는 촬상 장치(100)에서 원본 영상에 대하여 1차적인 분석을 수행하고, 이를 인코딩한 데이터를 의미할 수 있다.Also, the management server 200 may analyze the state of the kennel using data transmitted from the imaging device 100 or the data collection device 150 . For example, the management server 100 may receive the data primarily processed from the plurality of imaging devices 100 or the data collection device 150 to perform a more precise analysis on the state of the kennel. The management server 200 may perform data communication with the communication unit 115 of the imaging device 100 or data communication with a communication module (not shown) mounted on the data collection device 150 . The management server 200 may receive the original image captured by the imaging device 100 and the processed image data primarily processed. In this case, the processed image data may refer to data obtained by performing primary analysis on the original image in the breeding house management apparatus 100 or the imaging apparatus 100 and encoding the same.

공조 장치(300)는 사육장(10)의 온도를 조절하는 장치이다. 촬상 장치(100)가 사육장(10) 내 온도이상을 포착하여 관리 서버(200)에게 전송한 경우, 관리자는 관리 서버(200)에 출력된 화면을 통하여 사육장(10) 내 온도이상이 발생하였음을 인지할 수 있으며, 공조 장치(300)를 제어하여 사육장(10) 내 온도를 정상화할 수 있다. 또는, 촬상 장치(100)가 사육장(10) 내 온도이상을 검출하여 공조 장치(300)에게 직접 전달한 경우, 공조 장치(300)가 직접 사육장(10) 내 온도를 정상화할 수도 있다. 예를 들어, 사육장(10) 내의 온도가 가축이 생활하기에 적절한 온도보다 낮거나, 높은 경우, 가축들의 움직임이 둔화되는 경향이 있다. 이에 따라, 촬상 장치(100), 관리 서버(200), 또는 공조 장치(300)는 사육장(10) 내 온도이상을 검출하여 사육장(10) 내 온도를 정상화할 수 있다. The air conditioning device 300 is a device for controlling the temperature of the breeding house (10). When the imaging device 100 captures the temperature abnormality in the breeding ground 10 and transmits it to the management server 200, the manager recognizes that the temperature abnormality in the breeding farm 10 has occurred through the screen output to the management server 200 It can be recognized, and the temperature in the breeding house 10 can be normalized by controlling the air conditioning device 300 . Alternatively, when the imaging device 100 detects an abnormal temperature in the breeding ground 10 and directly transmits it to the air conditioner 300 , the air conditioner 300 may directly normalize the temperature in the breeding ground 10 . For example, when the temperature in the breeding house 10 is lower or higher than a temperature suitable for livestock to live, the movement of the livestock tends to be slowed. Accordingly, the imaging device 100 , the management server 200 , or the air conditioner 300 may detect an abnormal temperature in the breeding ground 10 and normalize the temperature in the breeding station 10 .

공조 장치(300)는 사육장(10)의 습도를 조절할 수 있다. 사육장(10) 내의 습도 이상이 발생한 경우, 공조 장치(300)를 제어하여 사육장(10) 내 습도를 정상화할 수 있다.The air conditioner 300 may adjust the humidity of the breeding house 10 . When an abnormality occurs in the humidity in the breeding ground 10 , the humidity in the breeding farm 10 may be normalized by controlling the air conditioner 300 .

촬상 장치(100)는 촬영부(111), 데이터 처리부(112), 모션 검출부(113), 제어부(114), 통신부(115), 표시부(116), 유저 인터페이스부(117), 인코딩부(118), 데이터 베이스(119), 광원부(120), 팬틸트부(121)를 포함한다. 본 발명의 실시예에서는 데이터 처리부(112), 모션 검출부(113), 제어부(114), 통신부(115)를 포함하는 이상 개체 검출 장치가 촬상 장치(100)에 포함되어 구성되는 것으로 도시하였다. 그러나, 이상 개체 검출 장치는 별도의 모듈 형태로 제작되어 데이터 수집장치(150) 또는 관리 서버(200)에 포함되어 구성될 수 있다. 또는, 이상 개체 검출 장치는 별도의 디바이스 형태로 독립된 제품으로 실시될 수 있다. 이상 개체 검출 장치가 촬상 장치(100)와 별도의 모듈 또는 디바이스 형태로 적용되는 경우 이상 개체 검출 장치는 통신부(115)를 통하여 촬상 장치(100)로부터 영상 데이터를 수신할 수 있다. 또한, 데이터 처리부 및 모션 검출부는 제어부에 포함되어 하나의 프로세서로 구현될 수 있다. 본 발명의 실시예에서는 설명의 편의를 위하여 데이터 처리부, 모션 검출부, 제어부의 기능을 나누어 설명하기로 한다.The imaging device 100 includes a photographing unit 111 , a data processing unit 112 , a motion detection unit 113 , a control unit 114 , a communication unit 115 , a display unit 116 , a user interface unit 117 , and an encoding unit 118 . ), a database 119 , a light source unit 120 , and a pan tilt unit 121 . In the embodiment of the present invention, an abnormal object detection apparatus including a data processing unit 112 , a motion detection unit 113 , a control unit 114 , and a communication unit 115 is illustrated as being included in the imaging device 100 . However, the abnormal object detection apparatus may be manufactured in the form of a separate module and configured to be included in the data collection apparatus 150 or the management server 200 . Alternatively, the abnormal object detection apparatus may be implemented as an independent product in the form of a separate device. When the abnormal object detection apparatus is applied in the form of a module or device separate from the imaging apparatus 100 , the abnormal object detection apparatus may receive image data from the imaging apparatus 100 through the communication unit 115 . In addition, the data processing unit and the motion detection unit may be implemented as one processor by being included in the control unit. In the embodiment of the present invention, the functions of the data processing unit, the motion detection unit, and the control unit will be separately described for convenience of description.

이하에서는, 이상 개체 검출 장치가 촬상 장치(100)내에 포함되어 있음을 예로 들어 설명하기로 한다.Hereinafter, it will be described by taking as an example that the abnormal object detecting apparatus is included in the imaging apparatus 100 .

촬상 장치(100)는 사육장(10)내에 복수개가 설치될 수 있다. 예를 들어, 촬상 장치(100)는 사육장(10)의 상부에 배치된 적어도 하나의 상부 촬상 장치 및 사육장의 측부에 배치된 적어도 하나의 측부 촬상 장치를 포함할 수 있다. 상부 촬상 장치 및 측부 촬상 장치 각각은 유선 또는 무선으로 통신이 가능하여 실시간 영상의 송출이 가능한 IP 카메라일 수 있다. 본 실시예에서는 사육장 상부에 하나의 촬상 장치(100)가 배치되어 있는 것을 예로 들어 설명하기로 한다.A plurality of imaging devices 100 may be installed in the kennel 10 . For example, the imaging device 100 may include at least one upper imaging device disposed on the top of the breeding ground 10 and at least one side imaging device disposed on the side of the breeding station 10 . Each of the upper imaging device and the side imaging device may be an IP camera capable of transmitting a real-time image because communication is possible by wire or wirelessly. In the present embodiment, an example in which one imaging device 100 is disposed above a breeding ground will be described.

촬영부(111)는 복수 개체를 포함하는 이미지를 촬영하여 영상 데이터를 생성할 수 있다. 본 발명의 실시예에서 복수 개체는 사육장 내부에서 사육되는 가금류를 의미할 수 있다.The photographing unit 111 may generate image data by photographing an image including a plurality of objects. In an embodiment of the present invention, a plurality of individuals may refer to poultry raised inside a feedlot.

촬영부(111)는 순차적으로 촬영되는 복수개의 이미지를 이용하여 복수개의 영상 데이터를 생성할 수 있다. 예를 들면, 촬영부(111)는 복수 개체를 포함하는 제1이미지를 촬영하여 제1영상 데이터를 생성할 수 있으며, 복수 개체를 포함하는 제2이미지를 촬영하여 제2영상 데이터를 생성할 수 있다. 제1이미지 및 제2이미지는 각각 시간상으로 연속적으로 촬영된 이미지일 수 있으며, 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 촬영부(111)는 순차적으로 촬영되는 제1이미지 및 제2이미지를 이용하여 제1영상 데이터 및 제2영상 데이터를 생성할 수 있다.The photographing unit 111 may generate a plurality of image data using a plurality of sequentially photographed images. For example, the photographing unit 111 may generate first image data by photographing a first image including a plurality of objects, and may generate second image data by photographing a second image including a plurality of objects. have. Each of the first image and the second image may be images continuously photographed in time, and one image data may mean a single frame. The photographing unit 111 may generate the first image data and the second image data by using the first image and the second image that are sequentially photographed.

촬영부(111)는 COMS(complementary metal-oxide semiconductor) 모듈 또는 CCD(charge coupled device) 모듈 등을 이용하여 피사체를 촬영하는 이미지 센서일 수 있다. 이때, 입력되는 영상 프레임은 렌즈를 통해 촬영부(111) 내의 COMS 모듈 또는 CCD 모듈로 제공되고, COMS 모듈 또는 CCD 모듈은 렌즈를 통과한 피사체의 광신호를 전기적 신호(영상 데이터)로 변환하여 출력한다. The photographing unit 111 may be an image sensor that photographs a subject using a complementary metal-oxide semiconductor (COMS) module or a charge coupled device (CCD) module. At this time, the input image frame is provided to the COMS module or CCD module in the photographing unit 111 through the lens, and the COMS module or CCD module converts the optical signal of the subject passing through the lens into an electrical signal (image data) and outputs it do.

촬영부(111)는 시야각이 넓은 어안렌즈 또는 광각렌즈를 포함할 수 있다. 이에 따라, 하나의 촬상 장치(100)가 사육장(10) 내부의 전체 공간을 촬영하는 것이 가능하다. The photographing unit 111 may include a fisheye lens or a wide-angle lens having a wide viewing angle. Accordingly, it is possible for one imaging device 100 to photograph the entire space inside the kennel 10 .

또한, 촬영부(111)는 깊이 카메라일 수 있다. 촬영부(111)는 다양한 깊이 인식 방식 중 어느 하나의 방식으로 구동될 수 있으며, 촬영부(111)를 통하여 촬영된 영상에는 깊이 정보가 포함될 수 있다. 촬영부(111)는 예를 들어, 키넥트 센서일 수 있다. 키넥트 센서는 구조광 투영 방식의 깊이 카메라로서, 프로젝터나 레이저를 이용하여 정의된 패턴 영상을 투영시키고 카메라를 통하여 패턴이 투영된 영상을 획득함으로써 장면의 삼차원 정보를 획득할 수 있다. 이러한 키넥트 센서는 적외선 레이저를 이용해 패턴을 조사하는 적외선 방사체, 및 적외선 영상을 촬영하는 적외선 카메라를 포함하며, 일반적인 웹캠과 같은 기능을 하는 RGB 카메라가 적외선 방사체와 적외선 카메라 사이에 배치되어 있다. 이 외에도, 키넥트 센서에는 마이크 배열과 카메라의 각도를 조절하는 팬틸트부(121)가 더 구성될 수 있다.Also, the photographing unit 111 may be a depth camera. The photographing unit 111 may be driven by any one of various depth recognition methods, and depth information may be included in an image photographed through the photographing unit 111 . The photographing unit 111 may be, for example, a Kinect sensor. The Kinect sensor is a structured light projection type depth camera, and can acquire three-dimensional information of a scene by projecting a defined pattern image using a projector or a laser and acquiring an image on which the pattern is projected through the camera. The Kinect sensor includes an infrared emitter that irradiates a pattern using an infrared laser, and an infrared camera that captures an infrared image, and an RGB camera that functions like a general webcam is disposed between the infrared emitter and the infrared camera. In addition to this, the Kinect sensor may further include a pan/tilt unit 121 for adjusting the angle of the microphone arrangement and the camera.

키넥트 센서의 기본적인 원리는, 적외선 방사체에서 조사된 레이저 패턴이 물체에 투영되어 반사되면, 반사 지점에서의 패턴의 위치 및 크기를 이용해 물체 표면까지의 거리를 구하게 된다. 이러한 원리에 따라, 촬영부(111)는 축사 내 공간으로 레이저 패턴을 조사하고, 개체에서 반사된 레이저 패턴을 센싱하여 개체 별 깊이 정보를 포함하는 영상 데이터를 생성할 수 있다.The basic principle of the Kinect sensor is that when a laser pattern irradiated from an infrared emitter is projected onto an object and reflected, the distance to the surface of the object is obtained using the position and size of the pattern at the reflection point. According to this principle, the photographing unit 111 may generate image data including depth information for each object by irradiating a laser pattern into the space within the shed and sensing the laser pattern reflected from the object.

데이터 처리부(112)는 영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성할 수 있다. 데이터 처리부(112)는 예를 들면, 복수 개체를 포함하여 생성된 제1영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성하고, 복수 개체를 포함하여 생성된 제2영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성할 수 있다.The data processing unit 112 may generate position distribution data indicating the position distribution of a plurality of objects by using the image data. The data processing unit 112 generates, for example, first position distribution data representing the position distribution of a plurality of entities by using the first image data generated including the plurality of entities, and generates a second image including the plurality of entities. The data may be used to generate second location distribution data indicating the location distribution of a plurality of objects.

본 발명의 실시예에서 위치 분포 데이터란, 영상 데이터상에서 검출된 가금류의 히트맵(heat map)을 의미할 수 있다.In an embodiment of the present invention, location distribution data may mean a heat map of poultry detected on image data.

예를 들면, 데이터 처리부(112)는 영상 데이터에서 개체의 외곽선을 검출하고, 검출된 외곽선과 데이터 베이스(119)에 미리 저장된 동물 개체의 외형을 비교하여 미리 저장된 동물 개체의 외형과 매칭되는 외곽선을 가진 개체를 동물 개체로서 검출할 수 있다. 이때, 데이터 베이스(119)에 저장된 동물 개체의 외형은 적어도 하나 이상의 동물 개체의 외형일 수 있으며, 데이터 처리부(112)는 상술한 바와 같이 매칭되는 외곽선을 가진 개체를 동물 개체로서 검출함과 동시에 해당 동물 개체의 종류도 판단할 수 있다.For example, the data processing unit 112 detects the outline of the object from the image data, compares the detected outline with the outline of the animal object stored in advance in the database 119 to obtain an outline matching the outline of the animal object stored in advance. It is possible to detect a subject with an animal as an animal subject. At this time, the appearance of the animal object stored in the database 119 may be the appearance of at least one or more animal objects, and the data processing unit 112 detects the object having the matching outline as the animal object as described above and simultaneously detects the corresponding object. It is also possible to determine the type of animal entity.

또한, 예를 들면, 데이터 처리부(112)는 영상 데이터 내의 개체의 특징점을 추출하고, 추출된 특징점이 데이터 베이스(119)에 미리 저장된 동물 개체의 특징점에 임계치 이상의 근접도로 매칭되면, 해당 영상 데이터 내의 개체를 동물 개체로서 검출할 수 있다. 이때, 데이터 처리부(112)는 비교 대상이 되는 두 개체의 영상에서 특징점을 추출하고, 추출된 두 개체의 특징점 기술자(descriptor)를 매칭하는 SIFT(Scale Invariant Feature Transform) 또는SURF(Speeded Up Robust Features) 알고리즘을 사용할 수 있다.Also, for example, the data processing unit 112 extracts a feature point of an object in the image data, and when the extracted feature point matches the feature point of an animal object stored in advance in the database 119 with a proximity of more than a threshold, within the image data The subject may be detected as an animal subject. In this case, the data processing unit 112 extracts feature points from the images of two objects to be compared, and matches the extracted feature descriptors of the two objects using SIFT (Scale Invariant Feature Transform) or SURF (Speed Up Robust Features) algorithms can be used.

또한, 예를 들면, 데이터 처리부(112)는 영상 데이터에서 개체들의 윤곽을 기초로 동물 개체를 검출할 수 있다. 보다 구체적으로, 데이터 처리부(112)는 영상 데이터에서 개체들의 윤곽을 검출하여 에지 영상을 생성하고, 데이터 베이스(119)에 미리 저장된 사육장의 배경 영상인 전경 영상 데이터로부터 윤곽을 검출하여 배경 에지 영상을 생성하며, 에지 영상에서 배경 에지 영상을 뺀 차 영상(different image) 에서 동물 개체를 검출할 수 있다. 이때, 데이터 처리부(112)는 영상 데이터 프레임의 그래디언트(gradient) 정보를 이용하여 프레임 내에 나타나는 개체의 윤곽을 에지로 검출하여 에지 영상을 생성한다. 여기서, 그래디언트 정보는 프레임에서 소정의 화소들 중 인접하는 화소들 간의 차이값으로부터 생성된 값으로서 차이의 절대값의 합을 의미하고, 에지는 그래디언트 정보를 이용한 개체 간의 경계선을 의미한다.Also, for example, the data processing unit 112 may detect an animal object based on outlines of the objects in the image data. More specifically, the data processing unit 112 generates an edge image by detecting the contours of the objects in the image data, and detects the contour from the foreground image data that is a background image of the breeding house stored in advance in the database 119 to generate a background edge image. and the animal object may be detected from a different image obtained by subtracting the background edge image from the edge image. In this case, the data processing unit 112 generates an edge image by detecting the outline of an object appearing in the frame as an edge using gradient information of the image data frame. Here, the gradient information is a value generated from a difference value between adjacent pixels among predetermined pixels in a frame and means the sum of absolute values of the difference, and the edge means a boundary line between objects using the gradient information.

또한, 데이터 처리부(112)는 기촬영된 사육장 내 전경의 영상 데이터에서 배경에 해당하는 개체의 에지를 검출하여 배경 에지 영상을 생성할 수 있다. 이때의 배경 에지 영상은 기설정된 영역의 개체들의 윤곽을 배경에지로 검출한 영상일 수 있으나, 기촬영된 사육장(10) 내 전경의 복수개의 영상 데이터 프레임을 비교하여 소정의 횟수이상 반복하여 동일하게 나타나는 개체의 윤곽을 배경에지로 검출한 영상일 수도 있다.In addition, the data processing unit 112 may generate a background edge image by detecting an edge of an object corresponding to the background from the previously photographed image data of the foreground in the kennel. In this case, the background edge image may be an image in which the outlines of objects in a preset area are detected as background edges. It may be an image in which the outline of the appearing object is detected as a background edge.

또한, 데이터 처리부(112)는 개체 검출 분류기를 이용하여 영상 데이터에서 동물 개체를 검출할 수 있다. 이때, 개체 검출 분류기는 동물 개체의 자세나 외부 환경을 달리하여 기촬영한 동물 개체의 영상들로부터 훈련 DB 를 구축하여 학습된 것으로서, 이러한 개체 검출 분류기는 SVM(Support Vector Machine), 신경망, AdaBoost 알고리즘 등을 포함하는 다양한 학습 알고리즘을 통해 동물 개체의 DB 를 생성한다. 구체적으로, 데이터 처리부(112)는 기 촬영된 사육장 내 배경의 영상 데이터에서 전경에 해당하는 개체의 에지를 검출하고, 영상 데이터에서 검출된 전경 개체의 에지를 적용하고, 전경 개체의 에지가 적용된 영상 데이터의 영역에 개체 검출 분류기를 적용하여 동물 개체를 검출할 수 있다.Also, the data processing unit 112 may detect an animal object from the image data using an object detection classifier. In this case, the object detection classifier is learned by constructing a training DB from images of animal objects previously photographed with different postures or external environments of the animal object. It creates a DB of animal objects through various learning algorithms including Specifically, the data processing unit 112 detects an edge of an object corresponding to the foreground from the image data of the background in the previously photographed kennel, applies the edge of the foreground object detected from the image data, and an image to which the edge of the foreground object is applied. An entity detection classifier can be applied to an area of data to detect an animal entity.

또한, 데이터 처리부(112)는 촬영부(111)에서 촬영한 영상 데이터에서 노이즈를 저감하고, 감마 보정(Gamma Correction), 색필터 배열보간(color filter array interpolation), 색 메트릭스(color matrix), 색보정(color correction), 색 향상(color enhancement) 등의 화질 개선을 위한 영상 신호 처리를 수행할 수 있다. 데이터 처리부(112)는 색채 처리, 블러처리, 에지 강조 처리, 영상 해석 처리, 영상 인식 처리, 영상 이펙트 처리 등도 수행할 수 있다.In addition, the data processing unit 112 reduces noise in the image data photographed by the photographing unit 111 , and performs gamma correction, color filter array interpolation, color matrix, and color. Image signal processing for image quality improvement such as color correction and color enhancement may be performed. The data processing unit 112 may also perform color processing, blur processing, edge enhancement processing, image analysis processing, image recognition processing, image effect processing, and the like.

모션 검출부(113)는 영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성할 수 있다. 모션 검출부(113)는 단일 영상 데이터 또는 복수개의 연속된 영상 데이터를 이용하여 분포도상의 특정 지점, 특정 개체 또는 특정 픽셀에서의 움직임을 검출할 수 있다.The motion detector 113 may generate motion data representing a motion of a motion object among a plurality of objects by using the image data. The motion detector 113 may detect a motion at a specific point, a specific object, or a specific pixel on a distribution map using single image data or a plurality of consecutive image data.

모션 검출부(113)는 예를 들면, 제1영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성하고, 제2 영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제2 동작 데이터를 생성할 수 있다.The motion detector 113 generates, for example, first motion data representing a motion of a motion object among a plurality of objects by using the first image data, and generates first motion data representing a motion of a motion object among the plurality of objects by using the second image data. Second motion data may be generated.

모션 검출부(113)는 Dense Optical Flow방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 모션 검출부(113)는 영상 데이터상의 모든 픽셀에 대해서 모션 벡터(Motion Vector)를 연산하여 각 픽셀에 대한 움직임을 검출할 수 있다. Dense Optical Flow방식의 경우 모든 픽셀에 대하여 모션 벡터를 연산하기 때문에 검출 정확도는 향상되지만 상대적으로 연산량은 증가하게 된다. 따라서, Dense Optical Flow방식은 이상상황이 발생된 것으로 의심되는 사육장이나 개체 숫자가 매우 많은 사육장 등 검출 정확도가 매우 높게 요구되는 특정 영역에 적용될 수 있다.The motion detection unit 113 may detect the motion of the moving object using the dense optical flow method. The motion detector 113 may detect a motion of each pixel by calculating a motion vector for all pixels on the image data. In the case of the Dense Optical Flow method, since the motion vector is calculated for all pixels, the detection accuracy is improved, but the amount of computation is relatively increased. Therefore, the Dense Optical Flow method can be applied to a specific area requiring very high detection accuracy, such as a kennel suspected of having an abnormal situation or a kennel with a very large number of individuals.

또는 모션 검출부(113)는 Sparse Optical Flow방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 모션 검출부(113)는 영상 내 에지와 같은 움직임 추적이 쉬운 특징적인 일부 픽셀에 대해서만 모션 벡터를 연산하여 움직임을 검출할 수 있다. Sparse Optical Flow방식은 연산량이 감소하지만 한정적인 픽셀에 대한 결과만 얻을 수 있다. 따라서, Sparse Optical Flow방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the motion detection unit 113 may detect the motion of the moving object using a sparse optical flow method. The motion detector 113 may detect a motion by calculating a motion vector for only some characteristic pixels that are easy to track motion, such as an edge in an image. Although the sparse optical flow method reduces the amount of computation, it can only obtain results for a limited number of pixels. Therefore, the sparse optical flow method can be applied to a kennel with a small number of individuals or to a specific area in which overlapping individuals do not appear.

또는 모션 검출부(113)는 Block Matching을 이용하여 동작 개체의 움직임을 검출할 수 있다. 모션 검출부(113)는 영상을 균등하게 또는 비균등하게 분할하여 분할 영역에 대해 모션 벡터를 연산하여 움직임을 검출할 수 있다. Block Matching은 분할 영역별로 모션 벡터를 연산하기 때문에 연산량이 감소하지만 영역별 모션 벡터에 대한 결과를 산출하기 때문에 검출 정확도가 상대적으로 낮을 수 있다. 따라서, Block Matching방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the motion detector 113 may detect the motion of the moving object using block matching. The motion detector 113 may divide the image equally or non-uniformly and calculate a motion vector for the divided region to detect the motion. Block Matching reduces the amount of computation because motion vectors are calculated for each segmented region, but the detection accuracy may be relatively low because it calculates the result for each region-specific motion vector. Therefore, the Block Matching method can be applied to a kennel with a small number of individuals or to a specific area in which overlapping individuals do not appear.

또는 모션 검출부(113)는 Continuous Frame Difference방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 모션 검출부(113)는 연속하는 영상 프레임을 픽셀 별로 비교하고, 그 차이만큼의 값을 연산하여 움직임을 검출할 수 있다. Continuous Frame Difference방식은 프레임간 차이값을 이용하여 움직임을 검출하기 때문에, 전체적인 연산량은 감소하지만 부피가 큰 개체 또는 중복되어 나타나는 개체에 대한 검출 정확도가 상대적으로 낮을 수 있다. 또한, Continuous Frame Difference방식은 배경 영상과 움직이지 않는 개체를 구분할 수 없어 정확도가 상대적으로 낮을 수 있다. 따라서, Continuous Frame Difference방식은 개체 숫자가 적은 사육장 또는 개체가 중복되어 나타나지 않는 특정 영역에 적용될 수 있다.Alternatively, the motion detector 113 may detect the motion of the moving object using a continuous frame difference method. The motion detector 113 may compare successive image frames for each pixel and calculate a value corresponding to the difference to detect motion. Since the continuous frame difference method detects motion using the difference value between frames, the overall amount of computation is reduced, but the detection accuracy for a bulky object or an overlapping object may be relatively low. In addition, the continuous frame difference method cannot distinguish between a background image and a non-moving object, so accuracy may be relatively low. Therefore, the Continuous Frame Difference method can be applied to a kennel with a small number of individuals or to a specific area in which overlapping individuals do not appear.

또는 모션 검출부(113)는 Background Subtraction방식을 이용하여 동작 개체의 움직임을 검출할 수 있다. 모션 검출부(113)는 배경 영상을 초기에 학습한 상태에서 연속하는 영상 프레임을 픽셀 별로 비교하고, 그 차이만큼의 값을 연산하여 움직임을 검출할 수 있다. Background Subtraction방식은 배경 영상을 미리 학습하고 있기 때문에 배경 영상과 움직이지 않는 개체를 구분할 수 있다. 따라서, 배경 영상을 필터링하는 별도의 과정이 필요하여 연산량은 증가하지만 정확도는 향상된다. 따라서, Background Subtraction방식은 이상상황이 발생된 것으로 의심되는 사육장이나 개체 숫자가 매우 많은 사육장 등 검출 정확도가 매우 높게 요구되는 특정 영역에 적용될 수 있다. Background Subtraction방식에서 배경 영상은 지속적으로 업데이트 될 수 있다.Alternatively, the motion detection unit 113 may detect the motion of the moving object using a background subtraction method. The motion detector 113 may compare successive image frames for each pixel in a state in which the background image is initially learned, and may detect a motion by calculating a value corresponding to the difference. Since the background subtraction method learns the background image in advance, it is possible to distinguish the background image from the non-moving object. Accordingly, a separate process of filtering the background image is required, which increases the amount of computation but improves accuracy. Therefore, the background subtraction method can be applied to a specific area requiring very high detection accuracy, such as a breeding ground suspected of having an abnormal situation or a breeding ground having a very large number of individuals. In the background subtraction method, the background image can be continuously updated.

모션 검출부(113)는 사육장내의 환경과 외부의 설정에 따라 적절한 방식을 이용하여 분포도상에서 움직임을 검출한다.The motion detection unit 113 detects a motion on the distribution map using an appropriate method according to the environment in the breeding ground and external settings.

제어부(114)는 영상 데이터의 위치 분포 데이터 및 동작 데이터를 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성할 수 있다. 제어부(114)는 예를 들면, 제1위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체를 나타내는 제1이상 개체 데이터를 생성할 수 있다. 제어부(114)는 제1위치 분포 데이터와 제1동작 데이터를 비교하여, 제1위치 분포 데이터 상에서 움직임이 검출되지 않은 개체에 대한 정보를 나타내는 제1이상 개체 데이터를 생성할 수 있다. 즉, 제어부(114)는 개체의 위치를 나타내는 제1위치 분포 데이터 상에서 움직임이 검출되지 않은 개체를 질병에 걸린 것으로 추정하고, 이에 대한 제1이상 개체 데이터를 생성할 수 있다. 즉, 제1이상 개체 데이터는 단일 영상 데이터에 대한 개체의 위치 분포와 움직임 검출 정보를 이용하여 개체의 질병 여부를 판단한 결과 데이터를 의미할 수 있다.또는 제어부(114)는 복수개의 영상 데이터에 대한 위치 분포 데이터 및 동작 데이터를 비교하여 복수 개체의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수를 연산하고, 상기 움직임 검출 누적 횟수와 상기 움직임 비검출 누적 횟수에 따라 이상 개체 데이터를 생성할 수 있다. 제어부는 예를 들면, 제1이상 개체 데이터, 제2위치 분포 데이터 및 제2 동작 데이터를 비교하여 제2 이상 개체 데이터를 생성할 수 있다. 제어부는 제1이상 개체 데이터를 제2위치 분포데이터 및 제2동작 데이터와 비교하여 복수 개체의 움직임 검출 누적 횟수와 복수 개체의 움직임 비검출 누적 횟수를 연산하고, 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제2이상 개체 데이터를 생성할 수 있다. 즉, 제2이상 개체 데이터는 복수개의 영상 데이터에 대하여 누적된 개체의 위치 정보와 움직임 검출 정보를 이용하여 개체의 질병 여부를 판단한 결과 데이터를 의미할 수 있다.The controller 114 may generate abnormal entity data indicating an abnormal entity by comparing the position distribution data and motion data of the image data. For example, the controller 114 may generate first abnormal entity data indicating an abnormal entity by comparing the first location distribution data and the first motion data. The control unit 114 may compare the first location distribution data with the first motion data to generate first or more object data indicating information about an object for which a motion is not detected on the first location distribution data. That is, the controller 114 may estimate that an individual whose motion is not detected on the first position distribution data indicating the position of the entity is afflicted with a disease, and generate the first abnormal entity data. That is, the first or more object data may refer to data as a result of determining whether an object has a disease by using the location distribution and motion detection information of the object with respect to single image data. Alternatively, the controller 114 may By comparing the position distribution data and the motion data, the cumulative number of motion detection and non-motion detection of a plurality of entities may be calculated, and abnormal entity data may be generated according to the cumulative number of motion detection and the cumulative number of motion non-detection. For example, the controller may generate the second abnormal entity data by comparing the first abnormal entity data, the second position distribution data, and the second motion data. The control unit compares the first or more object data with the second location distribution data and the second motion data to calculate the cumulative number of motion detections of the plurality of entities and the cumulative number of motion non-detections of the plurality of entities, and the cumulative number of motion detections and the cumulative number of motion detections According to the number of times, the second or more entity data may be generated. That is, the second or higher entity data may refer to data as a result of determining whether an entity has a disease by using the position information and motion detection information of the entity accumulated with respect to a plurality of image data.

제어부(114)는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 영상 데이터 상에서 복수개의 개체에 대한 픽셀 표시를 제어할 수 있다. 제어부는 예를 들면, 제2이상 개체 데이터에 따라 영상 데이터 상에서 상기 복수개의 개체에 대한 픽셀 표시를 제어할 수 있다. 여기서, 픽셀의 표시란 픽셀의 채도, 픽셀의 명암, 픽셀의 색상, 픽셀의 윤곽선, 마크 표시 등 임의의 지점에 대응되는 픽셀을 다른 픽셀과 구분하여 표시하기 위한 모든 개념을 포함할 수 있다. 본 발명의 실시예에서는 픽셀값의 조절을 통하여 픽셀의 표시를 제어할 수 있다. 픽셀값은 단계적으로 조절될 수 있으며, 픽셀값이 높은 픽셀의 경우, 픽셀값이 낮은 픽셀 보다 시각적으로 강조되어 표시될 수 있다. 그러나 이에 한정되는 것은 아니고, 픽셀값이 낮은 픽셀이 픽셀값이 높은 픽셀보다 강조되어 표시되는 것으로 설정할 수 있다. The controller 114 may control pixel display of a plurality of objects on the image data according to the cumulative number of motion detection and non-motion detection of the abnormal entity data. For example, the controller may control pixel display of the plurality of entities on image data according to the second or more entity data. Here, the pixel display may include all concepts for displaying a pixel corresponding to an arbitrary point, such as pixel saturation, pixel contrast, pixel color, pixel outline, and mark display, separately from other pixels. In an embodiment of the present invention, display of pixels may be controlled by adjusting pixel values. The pixel value may be adjusted in stages, and a pixel having a high pixel value may be visually emphasized and displayed compared to a pixel having a low pixel value. However, the present invention is not limited thereto, and a pixel having a low pixel value may be displayed with more emphasis than a pixel having a high pixel value.

이하에서는 움직임이 검출된 픽셀과 개체를 동일시하여 설명하기 위하여 하나의 픽셀은 하나의 개체를 표현하는 것으로 한다. 이는 설명의 편의를 위한 것이며 실제로는 복수개의 픽셀이 하나의 개체를 표현하게 된다. 즉, 가금류의 일부 신체 영역의 움직임만을 검출하여 이상상황을 판단하기 위하여서는 픽셀별로 움직임을 검출하여 픽셀의 표시를 제어하는 방식이 사용될 것이다.Hereinafter, in order to describe a pixel in which motion is detected and an object as the same, it is assumed that one pixel represents one object. This is for convenience of explanation, and in reality, a plurality of pixels represent one object. That is, in order to determine an abnormal situation by detecting only the movement of a part of the body region of the poultry, a method of detecting the movement of each pixel and controlling the display of the pixel will be used.

제어부(114)는 특정 개체의 움직임이 검출되지 않을수록 이상개체로 분류하고, 움직임이 검출될수록 정상개체로 분류하여 픽셀값을 다르게 표시할 수 있다.The controller 114 may classify the object as an abnormal object as the movement of a specific object is not detected, and classify the object as a normal object as the movement is detected to display pixel values differently.

이하, 도3 내지 도16은 사육장 상부에 설치된 촬상 장치로부터 촬영된 영상 데이터를 예시로 설명하기로 한다. 도3 내지 도11에서, n-k(k는 -1 에서 3사이의 자연수)프레임은 시간상 연속된 프레임을 의미하며, "0"는 각 프레임에서 움직임이 검출된 경우이고, "X"는 움직임이 비검출된 경우이다. 또한, 도3 내지 도6에서 영상 데이터의 각 개체의 픽셀값은 "0"으로 설정되어 있고, 도7 내지 도11에서 영상 데이터의 각 개체의 픽셀값은 "5"로 설정되어 있다. 도3 내지 도16에서 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 예를 들어, n-1번째 프레임이 제1영상 데이터인 경우, n번째 프레임은 제2영상 데이터를 의미할 수 있다. 또한, n번째 프레임이 제1영상 데이터인 경우, n+1번째 프레임은 제2영상 데이터를 의미할 수 있다. 도3은 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도3을 참고하면, 제어부는 움직임 비검출 누적 횟수에 따라 임의의 지점 또는 개체에 대응되는 픽셀값을 단계적으로 증가시킬 수 있다. 도3에서, 개체 A의 움직임 비검출 누적횟수는 5번이다. 따라서, 제어부는 개체 A의 픽셀값을 5단계 증가시킨다. 개체 B의 움직임 비검출 누적횟수는 3번이다. 따라서, 제어부는 개체 B의 픽셀값을 3단계 증가시킨다. 개체 C의 움직임 비검출 누적횟수는 2번이다. 따라서, 제어부는 개체 C의 픽셀값을 2단계 증가시킨다. 도3의 실시예에 따르면, 개체의 움직임 비검출 횟수의 총 누적 횟수가 커질수록 픽셀값이 증가하여 강조되어 표시될 수 있다. 즉, 분포도상에서 픽셀값이 높을 수록 적색으로 강조되어 표시될 수 있으며, 픽셀값이 낮을수록 원본 데이터 값에 가깝게 표시될 수 있다. 이에 따르면, 제어부는 일정 프레임 동안 움직임이 검출된 개체라 하더라도, 전체적인 움직임 비검출 누적 횟수가 많다면 이상개체에 가깝도록 강조 표시함으로써 질병에 대한 낮은 확률의 의심이 드는 개체라 하더라도 강조 표시할 수 있다.Hereinafter, image data captured by an imaging device installed on an upper part of a breeding ground will be described with reference to FIGS. 3 to 16 as an example. 3 to 11, nk (k is a natural number between -1 and 3) frames means consecutive frames in time, "0" is when motion is detected in each frame, and "X" is when motion is non-moving. case is detected. Also, in FIGS. 3 to 6 , the pixel value of each object of the image data is set to “0”, and in FIGS. 7 to 11 , the pixel value of each object of the image data is set to “5”. 3 to 16 , one image data may mean a single frame. For example, when the n-1 th frame is the first image data, the n th frame may mean the second image data. Also, when the nth frame is the first image data, the n+1th frame may mean the second image data. 3 is a view for explaining the operation of the control unit according to the embodiment of the present invention. Referring to FIG. 3 , the controller may increase the pixel value corresponding to an arbitrary point or object in stages according to the accumulated number of motion non-detection. In FIG. 3 , the cumulative number of motion non-detection of entity A is 5 times. Accordingly, the control unit increases the pixel value of the object A by 5 steps. The cumulative number of motion non-detection of object B is 3 times. Accordingly, the control unit increases the pixel value of the object B by three steps. The cumulative number of motion non-detection of object C is 2 times. Accordingly, the control unit increases the pixel value of the object C by two steps. According to the embodiment of FIG. 3 , as the total accumulated number of the number of times of non-detection of an object's motion increases, the pixel value may be increased and displayed with emphasis. That is, as the pixel value is higher on the distribution map, it may be displayed with emphasis in red, and as the pixel value is lower, it may be displayed closer to the original data value. According to this, even if a motion is detected during a certain frame, the control unit highlights even an object with a low probability of a disease by highlighting it to be close to an abnormal object if the cumulative number of total motion non-detection is large. .

도4는 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도4를 참고하면, 제어부는 연속된 움직임 비검출 누적 횟수에 따라 대응되는 개체의 픽셀값을 단계적으로 증가시킬 수 있다. 도4에서, 개체 A의 연속된 움직임 비검출 누적횟수는 5번이다. 따라서, 제어부는 개체 A의 픽셀값을 5단계 증가시킨다. 개체 B의 연속된 움직임 비검출 누적횟수는 2번이다. 따라서, 제어부는 개체 B의 픽셀값을 2단계 증가시킨다. 개체 C의 연속된 움직임 비검출 누적횟수는 1번이다. 따라서, 제어부는 개체 C의 픽셀값을 1단계 증가시킨다. 도4의 실시예에 따르면, 개체의 연속된 움직임 비검출 횟수의 총 누적 횟수가 커질수록 픽셀값이 증가하여 강조되어 표시될 수 있다. 이에 따르면, 제어부는 누적된 움직임 비검출 횟수가 크다 하더라도, 연속된 움직임 비검출 누적 횟수가 크지 않다면 정상개체에 가깝도록 표시할 수 있다.4 is a diagram for explaining an operation of a control unit according to an embodiment of the present invention. Referring to FIG. 4 , the controller may increase the pixel value of the corresponding object in stages according to the cumulative number of consecutive motion non-detection. In Fig. 4, the cumulative number of consecutive motion non-detection of the entity A is 5 times. Accordingly, the control unit increases the pixel value of the object A by 5 steps. The cumulative number of consecutive motion non-detection of object B is 2 times. Accordingly, the control unit increases the pixel value of the object B by two steps. The cumulative number of consecutive motion non-detection of entity C is 1. Accordingly, the control unit increases the pixel value of the object C by one step. According to the embodiment of FIG. 4 , as the total accumulated number of the number of consecutive motion non-detection of the object increases, the pixel value may be increased and displayed with emphasis. According to this, even if the accumulated number of motion non-detection is large, the controller may display it close to a normal object if the accumulated number of consecutive motion non-detection is not large.

도5는 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도5를 참고하면, 제어부는 움직임 비검출 누적 횟수가 제1임계값을 초과할 경우 대응되는 개체의 픽셀값을 제1설정값으로 제어할 수 있다. 여기서 제1임계값 및 제1설정값은 유저 인터페이스부를 통하여 설정될 수 있다. 또는 관리 서버의 제어 명령을 통하여 설정될 수 있다. 도5에서 제1임계값은 2회로 설정되어 있다. 제1설정값은 픽셀값의 최댓값을 의미할 수 있다. 도5에서 제1설정값은 픽셀의 최대 적색값을 의미할 수 있다. 도5에서, 개체 A의 움직임 비검출 누적횟수는 5번으로 제1임계값을 초과한다. 따라서, 제어부는 개체 A의 픽셀값을 최대 적색값으로 제어한다. 개체 B의 움직임 비검출 누적횟수는 3번으로 제1임계값을 초과한다. 따라서, 제어부는 개체 B의 픽셀값을 최대 적색값으로 제어한다. 개체 C의 연속된 움직임 비검출 누적횟수는 1번으로 제1임계값을 초과하지 않는다. 따라서, 제어부는 개체 C의 픽셀값을 현상태로 유지시킨다. 도5의 실시예에 따르면, 개체의 움직임 비검출 횟수의 총 누적 횟수가 특정횟수를 초과하는 경우에는 픽셀값을 최대한 강조하여 표시할 수 있다.5 is a diagram for explaining an operation of a control unit according to an embodiment of the present invention. Referring to FIG. 5 , when the cumulative number of non-motion detection exceeds a first threshold value, the controller may control a pixel value of a corresponding object as a first set value. Here, the first threshold value and the first set value may be set through the user interface unit. Alternatively, it may be set through a control command of the management server. In Fig. 5, the first threshold is set to two times. The first set value may mean a maximum value of a pixel value. In FIG. 5 , the first set value may mean the maximum red value of the pixel. In FIG. 5 , the cumulative number of motion non-detection of entity A is 5 times, which exceeds the first threshold. Accordingly, the controller controls the pixel value of the object A as the maximum red value. The cumulative number of motion non-detection of entity B exceeds the first threshold value 3 times. Accordingly, the controller controls the pixel value of the object B as the maximum red value. The cumulative number of consecutive motion non-detection of object C is 1, and does not exceed the first threshold. Accordingly, the control unit maintains the pixel value of the object C in the current state. According to the embodiment of FIG. 5 , when the total accumulated number of times of non-detection of an object's motion exceeds a specific number, the pixel value may be displayed with maximum emphasis.

도6은 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도6을 참고하면, 제어부는 연속된 움직임 비검출 누적 횟수가 제1임계값을 초과할 경우 대응되는 개체의 픽셀값을 제1설정값으로 제어할 수 있다. 여기서 제1임계값 및 제1설정값은 유저 인터페이스부를 통하여 설정될 수 있다. 또는 관리 서버의 제어 명령을 통하여 설정될 수 있다. 도6에서 제1임계값은 2회로 설정되어 있다. 제1설정값은 픽셀값의 최댓값을 의미할 수 있다. 도6에서 제1설정값은 픽셀의 최대 적색값을 의미할 수 있다. 개체 A의 연속된 움직임 비검출 누적횟수는 5번으로 제1임계값을 초과한다. 따라서, 제어부는 개체 A의 픽셀값을 최대 적색값으로 제어한다. 개체 B의 연속된 움직임 비검출 누적횟수는 2번으로 제1임계값을 초과하지 않는다. 따라서, 제어부는 개체 B의 픽셀값을 현상태로 유지시킨다. 개체 C의 연속된 움직임 비검출 누적횟수는 1번으로 제1임계값을 초과하지 않는다. 따라서, 제어부는 개체 C의 픽셀값을 현상태로 유지시킨다. 도6의 실시예에 따르면, 개체가 연속하여 움직이지 않는 프레임의 수가 제1임계값을 초과하는 경우에만 픽셀값을 최대한 강조하여 표시함으로써 좀 더 엄격한 기준에 따른 이상개체 판별이 가능하다.6 is a diagram for explaining an operation of a control unit according to an embodiment of the present invention. Referring to FIG. 6 , when the cumulative number of consecutive motion non-detection exceeds a first threshold value, the controller may control a pixel value of a corresponding object as a first set value. Here, the first threshold value and the first set value may be set through the user interface unit. Alternatively, it may be set through a control command of the management server. In Fig. 6, the first threshold is set to two times. The first set value may mean a maximum value of a pixel value. In FIG. 6 , the first set value may mean the maximum red value of the pixel. The cumulative number of consecutive motion non-detection of object A is 5, which exceeds the first threshold. Accordingly, the controller controls the pixel value of the object A as the maximum red value. The cumulative number of consecutive motion non-detection of object B is 2, and does not exceed the first threshold. Accordingly, the control unit maintains the pixel value of the object B in the current state. The cumulative number of consecutive motion non-detection of object C is 1, and does not exceed the first threshold. Accordingly, the control unit maintains the pixel value of the object C in the current state. According to the embodiment of FIG. 6 , only when the number of frames in which the object does not continuously move exceeds the first threshold value, the pixel value is displayed with maximum emphasis, thereby making it possible to discriminate anomalies according to stricter standards.

도7은 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도7을 참고하면, 제어부는 움직임 검출 누적 횟수에 따라 대응되는 개체의 픽셀값을 단계적으로 감소시킬 수 있다. 개체 A의 움직임 검출 누적횟수는 5번이다. 따라서, 제어부는 개체 A의 픽셀값을 5단계 감소시킨다. 개체 B의 움직임 검출 누적횟수는 3번이다. 따라서, 제어부는 개체 B의 픽셀값을 3단계 감소시킨다. 개체 C의 움직임 검출 누적횟수는 2번이다. 따라서, 제어부는 개체 C의 픽셀값을 2단계 감소시킨다. 도7의 실시예에 따르면, 개체의 움직임 검출 횟수의 총 누적 횟수가 커질수록 픽셀값이 감소함으로써 비강조되어 표시될 수 있다. 즉, 분포도상에서 픽셀값이 낮을 수록 원본 데이터 값에 가깝게 표시되거나 또는 희미하게 표시될 수 있다. 이에 따르면, 제어부는 일정 프레임 동안 움직임이 비검출된 개체라 하더라도, 전체적인 움직임 검출 누적 횟수가 많다면 정상개체에 가깝도록 비강조하여 표시할 수 있다.7 is a diagram for explaining an operation of a control unit according to an embodiment of the present invention. Referring to FIG. 7 , the controller may gradually decrease the pixel value of the corresponding object according to the accumulated number of motion detection. The cumulative number of motion detections of entity A is 5. Accordingly, the control unit decreases the pixel value of the object A by 5 steps. The cumulative number of motion detection of entity B is 3 times. Accordingly, the control unit decreases the pixel value of the object B by three steps. The cumulative number of motion detections of entity C is two. Accordingly, the control unit decreases the pixel value of the object C by two steps. According to the embodiment of FIG. 7 , as the total accumulated number of the number of detections of an object's motion increases, the pixel value decreases, so that the display may be displayed without emphasis. That is, the lower the pixel value on the distribution map, the closer to the original data value or the fainter it may be displayed. According to this, even if a motion is not detected during a predetermined frame, the controller can display a non-emphasized object close to a normal object if the total number of accumulated motion detections is large.

도8은 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도8을 참고하면, 제어부는 연속된 움직임 검출 누적 횟수에 따라 대응되는 개체의 픽셀값을 단계적으로 감소시킬 수 있다. 도8에서, 개체 A의 연속된 움직임 검출 누적횟수는 5번이다. 따라서, 제어부는 개체 A의 픽셀값을 5단계 감소시킨다. 개체 B의 연속된 움직임 검출 누적횟수는 2번이다. 따라서, 제어부는 개체 B의 픽셀값을 2단계 감소시킨다. 개체 C의 연속된 움직임 검출 누적횟수는 1번이다. 따라서, 제어부는 개체 C의 픽셀값을 1단계 감소시킨다. 도8의 실시예에 따르면, 개체의 연속된 움직임 검출 횟수의 누적 횟수가 커질수록 픽셀값이 감소하여 비강조 표시될 수 있다. 이에 따르면, 제어부는 누적된 움직임 검출 횟수가 크다 하더라도, 연속된 움직임 검출 누적 횟수가 크지 않다면 이상개체에 가깝도록 표시할 수 있다.8 is a diagram for explaining an operation of a control unit according to an embodiment of the present invention. Referring to FIG. 8 , the controller may gradually decrease the pixel value of the corresponding object according to the number of consecutive motion detection accumulations. In Fig. 8, the cumulative number of consecutive motion detection of the entity A is 5 times. Accordingly, the control unit decreases the pixel value of the object A by 5 steps. The cumulative number of consecutive motion detection of entity B is 2 times. Accordingly, the control unit decreases the pixel value of the object B by two steps. The cumulative number of consecutive motion detection of entity C is 1. Accordingly, the control unit decreases the pixel value of the object C by one step. According to the embodiment of FIG. 8 , as the cumulative number of the number of consecutive motion detection of an object increases, a pixel value may decrease and display non-emphasis. According to this, even if the accumulated number of motion detection is large, the controller can display the object to be close to the abnormal object if the accumulated number of consecutive motion detection is not large.

도9는 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도9를 참고하면, 제어부는 움직임이 검출된 개체의 픽셀값을 제2설정값으로 제어할 수 있다. 여기서 제2설정값은 유저 인터페이스부를 통하여 설정될 수 있다. 또는 관리 서버의 제어 명령을 통하여 설정될 수 있다. 도9에서 제2설정값은 원본 영상 데이터의 픽셀값이다. 도9에서, 개체 A 내지 개체 C는 n-1 내지 n+3의 영상 프레임동안 모두 한번 이상의 움직임이 검출되었다. 따라서, 제어부는 개체 A 내지 개체 C의 픽셀값을 원본 영상 데이터의 픽셀값으로 설정한다. 이에 따르면, 분석 영상 프레임 기간 동안 한 번이라도 움직임이 검출된 개체는 정상 개체로 분류하여 원본 영상 데이터의 픽셀값으로 표시할 수 있다.9 is a diagram for explaining an operation of a control unit according to an embodiment of the present invention. Referring to FIG. 9 , the controller may control a pixel value of an object whose motion is detected as a second set value. Here, the second setting value may be set through the user interface unit. Alternatively, it may be set through a control command of the management server. 9 , the second setting value is a pixel value of the original image data. In Fig. 9, in each of the objects A to C, motion was detected at least once during the image frames of n-1 to n+3. Accordingly, the controller sets the pixel values of the objects A to C as the pixel values of the original image data. Accordingly, an object whose motion is detected at least once during the analysis image frame period may be classified as a normal object and displayed as pixel values of the original image data.

도10은 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도10을 참고하면, 제어부는 움직임 검출 누적 횟수가 제2임계값을 초과할 경우 대응되는 개체의 픽셀값을 제2설정값으로 제어할 수 있다. 여기서 제2임계값 및 제2설정값은 유저 인터페이스부를 통하여 설정될 수 있다. 또는 관리 서버의 제어 명령을 통하여 설정될 수 있다. 도10에서 제2임계값은 2회로 설정되어 있다. 제2설정값은 원본 영상 데이터의 픽셀값이다. 도10에서, 개체 A의 움직임 검출 누적횟수는 5번으로 제2임계값을 초과한다. 따라서, 제어부는 개체 A의 픽셀값을 원본 영상 데이터의 픽셀값으로 제어한다. 개체 B의 움직임 검출 누적횟수는 3번으로 제2임계값을 초과한다. 따라서, 제어부는 개체 B의 픽셀값을 원본 영상 데이터의 픽셀값으로 제어한다. 개체 C의 연속된 움직임 검출 누적횟수는 1번으로 제2임계값을 초과하지 않는다. 따라서, 제어부는 개체 C의 픽셀값을 현상태로 유지시킨다. 도10의 실시예에 따르면, 개체의 움직임 검출 횟수의 총 누적 횟수가 특정횟수를 초과하는 경우에는 픽셀값을 원본 영상 데이터의 픽셀값으로 표시할 수 있다.10 is a diagram for explaining an operation of a control unit according to an embodiment of the present invention. Referring to FIG. 10 , when the accumulated number of motion detection exceeds the second threshold value, the controller may control the pixel value of the corresponding object as the second set value. Here, the second threshold value and the second setting value may be set through the user interface unit. Alternatively, it may be set through a control command of the management server. In Fig. 10, the second threshold is set to two times. The second setting value is a pixel value of the original image data. In Fig. 10, the cumulative number of motion detections of the entity A is 5, which exceeds the second threshold. Accordingly, the controller controls the pixel value of the object A as the pixel value of the original image data. The cumulative number of motion detections of entity B exceeds the second threshold value 3 times. Accordingly, the controller controls the pixel value of the object B as the pixel value of the original image data. The cumulative number of consecutive motion detection of entity C is 1, and does not exceed the second threshold. Accordingly, the control unit maintains the pixel value of the object C in the current state. According to the embodiment of FIG. 10 , when the total accumulated number of times of detecting the motion of an object exceeds a specific number, the pixel value may be displayed as the pixel value of the original image data.

도11은 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도11을 참고하면, 제어부는 연속된 움직임 검출 누적 횟수가 제2임계값을 초과할 경우 대응되는 개체의 픽셀값을 제2설정값으로 제어할 수 있다. 여기서 제2임계값 및 제2설정값은 유저 인터페이스부를 통하여 설정될 수 있다. 또는 관리 서버의 제어 명령을 통하여 설정될 수 있다. 도11에서 제2임계값은 2회로 설정되어 있다. 제2설정값은 원본 영상 데이터의 픽셀값이다. 도11에서, 개체 A의 움직임 검출 누적횟수는 5번으로 제2임계값을 초과한다. 따라서, 제어부는 개체 A의 픽셀값을 원본 영상 데이터의 픽셀값으로 제어한다. 개체 B의 움직임 검출 누적횟수는 2번으로 제2임계값을 초과하지 않는다. 따라서, 제어부는 개체 B의 픽셀값을 현상태로 유지시킨다. 개체 C의 연속된 움직임 검출 누적횟수는 1번으로 제2임계값을 초과하지 않는다. 따라서, 제어부는 개체 C의 픽셀값을 현상태로 유지시킨다. 도11의 실시예에 따르면, 개체의 연속된 움직임 검출 횟수의 총 누적 횟수가 특정횟수를 초과하는 경우에만 픽셀값을 원본 영상 데이터의 픽셀값으로 표시할 수 있다.11 is a diagram for explaining an operation of a control unit according to an embodiment of the present invention. Referring to FIG. 11 , when the cumulative number of consecutive motion detection exceeds the second threshold value, the controller may control the pixel value of the corresponding object as the second set value. Here, the second threshold value and the second setting value may be set through the user interface unit. Alternatively, it may be set through a control command of the management server. In Fig. 11, the second threshold is set to two times. The second setting value is a pixel value of the original image data. In Fig. 11, the cumulative number of motion detection of the entity A is 5, which exceeds the second threshold. Accordingly, the controller controls the pixel value of the object A as the pixel value of the original image data. The cumulative number of motion detections of entity B is 2 and does not exceed the second threshold. Accordingly, the control unit maintains the pixel value of the object B in the current state. The cumulative number of consecutive motion detection of entity C is 1, and does not exceed the second threshold. Accordingly, the control unit maintains the pixel value of the object C in the current state. According to the embodiment of FIG. 11 , the pixel value may be displayed as the pixel value of the original image data only when the total accumulated number of the number of consecutive motion detections of the object exceeds a specific number.

도12는 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도12를 참고하면, 제어부는 움직임이 검출된 개체의 대응되는 픽셀값을 제2설정값으로 제어하고, 이상 개체 데이터상에서 제외시킴으로써 이후 분석 대상에서 제외할 수 있다. 여기서 제2설정값은 유저 인터페이스부를 통하여 설정될 수 있다. 또는 관리 서버의 제어 명령을 통하여 설정될 수 있다. 도12에서 제2설정값은 원본 영상 데이터의 픽셀값이다. 도12에서, 개체 A의 경우, 제어부는 움직임이 검출된 n-1프레임에서 개체 A의 픽셀값을 원본 영상 데이터 픽셀값으로 설정하고, 이후 n 내지 n+3프레임 기간동안 분석 대상에서 제외한다. 개체 B의 경우, 제어부는 움직임이 검출된 n프레임에서 개체 B의 픽셀값을 원본 영상 데이터 픽셀값으로 설정하고, 이후 n+1 내지 n+3프레임 기간동안 분석 대상에서 제외한다. 개체 C의 경우, 제어부는 움직임이 검출된 n+2프레임에서 개체 C의 픽셀값을 원본 영상 데이터 픽셀값으로 설정하고, 이후 n+3프레임 기간동안 분석 대상에서 제외한다.12 is a diagram for explaining an operation of a control unit according to an embodiment of the present invention. Referring to FIG. 12 , the controller may control a pixel value corresponding to a motion-detected object as a second set value and exclude it from the analysis target later by excluding it from the abnormal object data. Here, the second setting value may be set through the user interface unit. Alternatively, it may be set through a control command of the management server. 12 , the second setting value is a pixel value of the original image data. 12 , in the case of the object A, the controller sets the pixel value of the object A as the original image data pixel value in the n-1 frame in which the motion is detected, and then excludes it from the analysis target for the period of n to n+3 frames. In the case of the object B, the controller sets the pixel value of the object B as the original image data pixel value in the n frames in which the motion is detected, and then excludes the object from analysis for the period of n+1 to n+3 frames. In the case of the object C, the controller sets the pixel value of the object C as the original image data pixel value in the n+2 frames in which the motion is detected, and excludes it from the analysis target for the n+3 frame period thereafter.

도13은 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도13을 참고하면, 제어부는 움직임 검출 누적 횟수가 제2임계값을 초과하는 개체에 대응되는 픽셀값을 제2설정값으로 제어하고, 이상 개체 데이터상에서 제외시킴으로써 이후 분석 대상에서 제외할 수 있다. 여기서 제2임계값 및 제2설정값은 유저 인터페이스부를 통하여 설정될 수 있다. 또는 관리 서버의 제어 명령을 통하여 설정될 수 있다. 도13에서 제2임계값은 1회로 설정되어 있다. 제2설정값은 원본 영상 데이터의 픽셀값이다. 도13에서, 개체 A의 경우 n프레임에서 움직임 누적 검출 횟수가 2회로 나타난다. 따라서, 제어부는 n프레임에서 개체 A의 픽셀값을 원본 영상 데이터 픽셀값으로 설정하고, 이후 n+1 내지 n+3프레임 기간동안 분석 대상에서 제외한다. 개체 B의 경우 n+2프레임에서 움직임 누적 검출 횟수가 2회로 나타난다. 따라서, 제어부는 n+2프레임에서 개체 B의 픽셀값을 원본 영상 데이터 픽셀값으로 설정하고, 이후 n+3프레임 기간동안 분석 대상에서 제외한다. 개체 C의 경우 분석 프레임 기간 동안 움직임 검출 누적 횟수가 2회 미만으로 나타났기 때문에 제어부는 이후 프레임에서도 지속적으로 분석을 수행하여 픽셀값을 제어하게 된다.13 is a diagram for explaining an operation of a control unit according to an embodiment of the present invention. Referring to FIG. 13 , the control unit may control a pixel value corresponding to an entity whose accumulated number of motion detection exceeds a second threshold value as a second set value and exclude it from the analysis target by excluding it from the abnormal entity data. Here, the second threshold value and the second setting value may be set through the user interface unit. Alternatively, it may be set through a control command of the management server. In Fig. 13, the second threshold is set to one time. The second setting value is a pixel value of the original image data. In Fig. 13, in the case of entity A, the number of cumulative motion detections in n frames is shown twice. Accordingly, the controller sets the pixel value of the object A as the pixel value of the original image data in n frames, and excludes it from the analysis target for a period of n+1 to n+3 frames thereafter. In the case of object B, the cumulative motion detection count appears twice in n+2 frames. Accordingly, the controller sets the pixel value of the object B as the original image data pixel value in n+2 frames, and excludes it from the analysis target for the n+3 frame period thereafter. In the case of entity C, since the cumulative number of motion detections during the analysis frame period was less than 2, the controller controls the pixel values by continuously performing analysis in subsequent frames.

도14는 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도14를 참고하면, 제어부는 연속된 움직임 검출 누적 횟수가 제2임계값을 초과하는 개체에 대응되는 픽셀값을 제2설정값으로 제어하고, 이상 개체 데이터상에서 제외시킴으로써 이후 분석 대상에서 제외할 수 있다. 여기서 제2임계값 및 제2설정값은 유저 인터페이스부를 통하여 설정될 수 있다. 또는 관리 서버의 제어 명령을 통하여 설정될 수 있다. 도14에서 제2임계값은 1회로 설정되어 있다. 제2설정값은 원본 영상 데이터의 픽셀값이다. 도14에서, 개체 A의 경우 n프레임에서 연속된 움직임 누적 검출 횟수가 2회로 나타난다. 따라서, 제어부는 n프레임에서 개체 A의 픽셀값을 원본 영상 데이터 픽셀값으로 설정하고, 이후 n+1 내지 n+3프레임 기간동안 분석 대상에서 제외한다. 개체 B및 개체 C의 경우 분석 프레임 기간 동안 연속된 움직임 검출 누적 횟수가 2회 미만으로 나타났기 때문에 제어부는 이후 프레임에서도 지속적으로 분석을 수행하여 픽셀값을 제어하게 된다.14 is a diagram for explaining an operation of a control unit according to an embodiment of the present invention. Referring to FIG. 14 , the controller controls a pixel value corresponding to an object whose cumulative number of consecutive motion detection exceeds the second threshold value as a second set value, and excludes it from the analysis target later by excluding it from the abnormal object data. have. Here, the second threshold value and the second setting value may be set through the user interface unit. Alternatively, it may be set through a control command of the management server. In Fig. 14, the second threshold is set to one time. The second setting value is a pixel value of the original image data. 14 , in the case of entity A, the number of consecutive motion accumulation detections in n frames is shown twice. Accordingly, the controller sets the pixel value of the object A as the pixel value of the original image data in n frames, and excludes it from the analysis target for a period of n+1 to n+3 frames thereafter. In the case of entities B and C, since the cumulative number of consecutive motion detections during the analysis frame period was less than 2, the controller continuously performs analysis in subsequent frames to control the pixel values.

도12 내지 도14의 경우 움직임 검출 횟수에 따라 특정 조건을 만족하는 개체의 경우 정상 개체로 판단하고, 정상 개체로 판단한 시점 이후에는 분석 대상에서 제외함으로써 분석을 위한 데이터 연산량을 감소시킬 수 있다. 이에 따라 적게는 수백마리 많게는 수만마리의 가금류가 생활하는 사육장 내부를 촬영한 영상 데이터의 분석 속도와 정확성, 그리고 효율성을 크게 향상시킬 수 있다.In the case of FIGS. 12 to 14 , an entity satisfying a specific condition according to the number of motion detections is determined as a normal entity, and the amount of data calculation for analysis can be reduced by excluding from the analysis target after the time point at which the entity is determined to be a normal entity. Accordingly, it is possible to greatly improve the analysis speed, accuracy, and efficiency of video data captured inside a kennel where as few as hundreds and as many as tens of thousands of poultry live.

도15는 본 발명의 실시예에 따른 제어부의 동작을 설명하기 위한 도면이다. 도15를 참고하면, 제어부는 움직임 검출 누적 횟수가 제2임계값 이상인 개체에 대응되는 픽셀값을 제2설정값으로 제어하고, 분석 대상에서 제외할 수 있다. 여기서 제2임계값 및 제2설정값은 유저 인터페이스부를 통하여 설정될 수 있다. 또는 관리 서버의 제어 명령을 통하여 설정될 수 있다. 도15에서 제2임계값은 2회로 설정되어 있다. 제2설정값은 해당 개체 또는 해당 픽셀이 시각적으로 표시되지 않기 위한 모든 수단으로 구현될 수 있다. 제2설정값은 예를 들면, 해당 개체 또는 해당 픽셀에 대한 마스킹 처리, 모자이크 처리, 투명 픽셀 처리 등에 의하여 구현될 수 있다. 이에 따라 정상 개체로 분류될 경우 영상 데이터 상에 시각적으로 표시되지 않게 되어 이상 개체를 보다 정확하게 판별할 수 있다는 이점이있다. 15 is a diagram for explaining an operation of a control unit according to an embodiment of the present invention. Referring to FIG. 15 , the controller may control a pixel value corresponding to an entity having a cumulative number of motion detections equal to or greater than a second threshold value as a second set value and exclude it from analysis. Here, the second threshold value and the second setting value may be set through the user interface unit. Alternatively, it may be set through a control command of the management server. In Fig. 15, the second threshold is set to two times. The second setting value may be implemented by any means for not visually displaying the corresponding object or the corresponding pixel. The second setting value may be implemented by, for example, masking processing, mosaic processing, or transparent pixel processing for a corresponding object or corresponding pixel. Accordingly, when classified as a normal object, it is not visually displayed on the image data, so there is an advantage in that an abnormal object can be more accurately identified.

다시 도1 및 도2를 참고하면, 제어부(114)는 촬상 장치(100)의 동작을 위한 각종 명령을 수행할 수 있다. Referring back to FIGS. 1 and 2 , the controller 114 may perform various commands for the operation of the imaging device 100 .

제어부(114)는 예를 들면, 유저 인터페이스부(117) 또는 데이터 베이스(119)에 저장된 명령을 수행하여 촬상 장치(100)의 동작을 수행할 수 있다.The control unit 114 may perform an operation of the imaging device 100 by, for example, executing a command stored in the user interface unit 117 or the database 119 .

또는 제어부(114)는 관리 서버(200)로부터 수신한 명령을 이용하여 촬상 장치(100)의 각종 동작을 제어할 수 있다.Alternatively, the controller 114 may control various operations of the imaging device 100 using a command received from the management server 200 .

제어부(114)는 촬영부(11)를 제어하여 움직임 비검출 누적 횟수가 제3설정값 이상인 지점 또는 개체를 추적 촬영할 수 있다. 제3설정값은 유저 인터페이스부(117)를 통하여 설정되거나 또는 관리 서버(200)의 제어 명령을 통하여 설정될 수 있다. 제어부(114)는 촬영부(111)를 제어하여 이상개체가 있는 특정 영역을 추적 촬영하여 영상 데이터를 생성하게 함으로써 지속적인 모니터링을 수행할 수 있게 한다.The controller 114 may control the photographing unit 11 to track and photograph a point or an object in which the cumulative number of motion non-detection is equal to or greater than the third set value. The third setting value may be set through the user interface unit 117 or may be set through a control command of the management server 200 . The control unit 114 controls the photographing unit 111 to track and photograph a specific area with an abnormal object to generate image data, so that continuous monitoring can be performed.

이 때, 제어부(114)는 촬상 장치(100)의 팬틸트부(121)를 제어하여 추적 촬영을 수행할 수 있다. 팬틸트부(121)는 팬(Pan, 수평방향) 및 틸트(Tilt, 수직 방향) 2개의 모터를 구동하여 촬영부(111)의 촬영 영역을 제어할 수 있다. 팬틸트부(121)는 제어부(114)의 제어에 따라 특정 영역을 촬영하기 위하여 촬영부(111)의 지향 방향을 조절할 수 있다. 또한, 팬틸트부(121)는 제어부(114)의 제어에 따라 특정 개체를 트래킹하기 위하여 촬영부(111)의 지향 방향을 조절할 수 있다.In this case, the controller 114 may control the pan/tilt unit 121 of the imaging device 100 to perform tracking imaging. The pan/tilt unit 121 may control the photographing area of the photographing unit 111 by driving two motors: Pan (horizontal direction) and tilt (Tilt, vertical direction). The pan/tilt unit 121 may adjust the orientation direction of the photographing unit 111 in order to photograph a specific area under the control of the control unit 114 . Also, the pan/tilt unit 121 may adjust the orientation direction of the photographing unit 111 in order to track a specific object under the control of the control unit 114 .

통신부(115)는 타 촬상 장치, 데이터 수집장치(150) 또는 관리 서버(200)와 데이터 통신을 수행할 수 있다. 예를 들면, 통신부(115)는 무선랜(Wireless LAN: WLAN), 와이 파이(Wi-Fi), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등의 원거리 통신 기술을 사용하여 데이터 통신을 수행할 수 있다.The communication unit 115 may perform data communication with another imaging device, the data collection device 150 , or the management server 200 . For example, the communication unit 115 is a wireless LAN (Wireless LAN: WLAN), Wi-Fi (Wi-Fi), Wi-Bro (Wireless Broadband: Wibro), WiMAX (World Interoperability for Microwave Access: Wimax), HSDPA (High Speed Downlink) Packet Access), IEEE 802.16, Long Term Evolution (LTE), and data communication may be performed using a telecommunication technology such as Wireless Mobile Broadband Service (WMBS).

또는 통신부(115)는 블루투스, RFID(RadioFrequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비, 인접 자장 통신(NFC) 등이 포함될 수 있다. 또한, 유선 통신 기술로는, USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등의 근거리 통신 기술을 사용하여 데이터 통신을 수행할 수 있다.Alternatively, the communication unit 115 may include Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and Neighboring Field Communication (NFC). In addition, as the wired communication technology, data communication may be performed using a short-distance communication technology such as USB communication, Ethernet, serial communication, or an optical/coaxial cable.

예를 들면, 통신부(115)는 근거리 통신 기술을 사용하여 타 촬상 장치 또는 데이터 수집장치(150)와 데이터 통신을 수행하고, 원거리 통신 기술을 사용하여 관리 서버(200)와 데이터 통신을 수행할 수 있다, 그러나 이에 한정되는 것은 아니고, 사육장(10)의 제반 사항 등을 고려하여 다양한 통신 기술이 사용될 수 있다.For example, the communication unit 115 may perform data communication with another imaging device or data collection device 150 using a short-distance communication technology, and may perform data communication with the management server 200 using a long-distance communication technology. Yes, but is not limited thereto, and various communication technologies may be used in consideration of all matters of the breeding ground 10 and the like.

통신부(115)는 촬영부(111)에서 촬영한 원본 영상 데이터를 데이터 수집장치(150) 또는 관리 서버(200)에 전송할 수 있다.The communication unit 115 may transmit the original image data captured by the photographing unit 111 to the data collection device 150 or the management server 200 .

또는 통신부(115)는 데이터 수집장치(150) 또는 원격의 관리 서버(200) 중 적어도 하나로 픽셀값이 조절된 영상 데이터, 위치 분포 데이터, 동작 데이터 및 좌표 정보 중 적어도 하나를 전송할 수 있다. 이 때, 좌표 정보는 이상개체로 의심되는 지점 또는 개체에 대한 좌표를 의미할 수 있다.Alternatively, the communication unit 115 may transmit at least one of image data whose pixel values are adjusted, position distribution data, motion data, and coordinate information to at least one of the data collection device 150 or the remote management server 200 . In this case, the coordinate information may mean coordinates of a point or object suspected of being an anomaly.

통신부(115)를 통하여 전송되는 데이터는 인코딩부(118)를 통하여 인코딩된 압축 데이터일 수 있다.Data transmitted through the communication unit 115 may be compressed data encoded through the encoding unit 118 .

표시부(116)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 116 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (Flexible Display). ), a three-dimensional display (3D display), may include at least one of an e-ink display (e-ink display).

표시부(116)는 제어부(114)를 통하여 픽셀값이 조절된 영상 데이터 및 분포 데이터 중 적어도 하나를 디스플레이할 수 있다.The display unit 116 may display at least one of image data and distribution data whose pixel values are adjusted through the control unit 114 .

또한, 표시부(116)는 촬영부(111)에서 촬영한 원본 영상 데이터를 화면에 출력할 수 있다. Also, the display unit 116 may output the original image data captured by the photographing unit 111 on the screen.

또한, 표시부(116)는 다양한 사용자 인터페이스 또는 그래픽 사용자 인터페이스를 화면에 출력할 수 있다.Also, the display unit 116 may output various user interfaces or graphic user interfaces on the screen.

유저 인터페이스부(117)는 촬상 장치(100)의 동작 제어를 위한 입력 데이터를 발생시킨다. 유저 인터페이스부(117)는 키 패드, 돔 스위치, 터치 패드, 조그 휠, 조그 스위치 등으로 구성될 수 있다. 표시부(116)와 터치패드가 상호 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 표시부(116)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. The user interface unit 117 generates input data for controlling the operation of the imaging apparatus 100 . The user interface unit 117 may include a key pad, a dome switch, a touch pad, a jog wheel, a jog switch, and the like. When the display unit 116 and the touchpad form a layered structure to form a touch screen, the display unit 116 may be used as an input device in addition to an output device.

유저 인터페이스부(117)는 촬상 장치의 동작을 위한 다양한 명령을 입력받을 수 있다.The user interface unit 117 may receive various commands for operating the imaging device.

인코딩부(118)는 촬영부(111)에서 촬영한 원본 영상 데이터 또는 데이터 처리부(112), 모션 검출부(113), 제어부(114) 등을 통하여 가공된 가공 영상 데이터를 디지털 신호로 부호화한다. 예를 들면, 인코딩부(118)는 H.264, H.265, MPEG(Moving Picture Experts Group), M-JPEG(Motion Joint Photographic Experts Group) 표준에 따라 영상 데이터를 인코딩할 수 있다.The encoding unit 118 encodes the original image data photographed by the photographing unit 111 or the processed image data processed through the data processing unit 112 , the motion detection unit 113 , and the control unit 114 into a digital signal. For example, the encoding unit 118 may encode image data according to H.264, H.265, Moving Picture Experts Group (MPEG), and Motion Joint Photographic Experts Group (M-JPEG) standards.

데이터 베이스(119)는, 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 촬상 장치(100)는 인터넷(internet) 상에서 데이터 베이스(119)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 웹 스토리지와 관련되어 동작할 수도 있다.The database 119 is a flash memory type (Flash Memory Type), a hard disk type (Hard Disk Type), a multimedia card micro type (Multimedia Card Micro Type), a card type memory (eg, SD or XD memory, etc.) ), magnetic memory, magnetic disk, optical disk, random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), PROM ( Programmable Read-Only Memory) may include at least one storage medium. Also, the imaging device 100 may operate a web storage that performs a storage function of the database 119 on the Internet, or may operate in connection with the web storage.

데이터 베이스(119)는 촬영부(111)에서 촬영한 영상 데이터를 저장할 수 있으며, 과거 일정 기간 동안의 영상 데이터를 저장할 수 있다.The database 119 may store image data captured by the photographing unit 111 , and may store image data for a predetermined period in the past.

또한, 데이터 베이스(119)는, 촬상 장치(100)가 동작하는데 필요한 데이터와 프로그램 등을 저장할 수 있다.Also, the database 119 may store data and programs necessary for the imaging apparatus 100 to operate.

또한, 데이터 베이스(119)는, 다양한 사용자 인터페이스(User Interface: UI) 또는 그래픽 사용자 인터페이스(Graphic User Interface: GUI)를 저장할 수 있다.Also, the database 119 may store various user interfaces (UIs) or graphic user interfaces (GUIs).

광원부(120)는 제어부(114)의 제어에 따라 지향하는 방향으로 광을 조사할 수 있다. 예를 들면, 광원부(120)는 적어도 하나의 레이저 다이오드(LD), 발광 다이오드(LED)를 포함할 수 있다. 광원부는 제어부의 제어에 따라 다양한 파장대의 광을 조사할 수 있다.The light source unit 120 may irradiate light in a direction directed under the control of the control unit 114 . For example, the light source unit 120 may include at least one laser diode LD and a light emitting diode LED. The light source unit may emit light in various wavelength bands under the control of the controller.

예를 들면, 광원부(120)는 야간 촬영을 위하여 적외선 파장대의 광을 조사할 수 있다. 또는, 광원부(120)는 사육장내 가축의 광화학 치료(photochemotherapy)를 위하여 자외선 파장대의 광을 조사할 수 있다.For example, the light source unit 120 may irradiate light in an infrared wavelength band for night photography. Alternatively, the light source unit 120 may irradiate light in the ultraviolet wavelength band for photochemotherapy of livestock in the breeding grounds.

도16은 본 발명의 실시예에 따른 이상 개체 검출 방법의 순서도이다.16 is a flowchart of a method for detecting an anomaly according to an embodiment of the present invention.

도16을 참고하면, 먼저 촬영부는 복수 개체를 포함하는 이미지를 촬영한다. 촬영부는 사육장 내부에 배치되어 가금류를 포함하는 복수 개체를 촬영한다(S1601).Referring to FIG. 16 , first, the photographing unit captures an image including a plurality of objects. The photographing unit is disposed inside the kennel to photograph a plurality of objects including poultry (S1601).

다음으로, 촬영부는 복수 개체를 포함하는 이미지를 이용하여 영상 데이터를 생성한다. 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 데이터 처리부는 순차적으로 촬영되는 이미지를 이용하여 복수개의 영상 데이터를 생성한다(S1602).Next, the photographing unit generates image data by using an image including a plurality of objects. One image data may mean a single frame. The data processing unit generates a plurality of image data by using the sequentially photographed images (S1602).

다음으로, 데이터 처리부는 영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성한다. 데이터 처리부는 시계열적으로 생성된 복수개의 영상 데이터에 대한 위치 분포 데이터를 생성한다(S1603).Next, the data processing unit generates position distribution data indicating the position distribution of a plurality of objects by using the image data. The data processing unit generates position distribution data for a plurality of time-series generated image data (S1603).

다음으로, 모션 검출부는 영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성한다. 데이터 처리부는 시계열적으로 생성된 복수개의 영상 데이터에 대한 동작 데이터를 생성한다(S1604).Next, the motion detector generates motion data representing the motion of the motion object among the plurality of objects by using the image data. The data processing unit generates motion data for a plurality of time-series generated image data (S1604).

위치 분포 데이터 생성 및 동작 데이터를 생성하는 단계는 동시에 수행되거나, 어느 하나의 데이터 생성 과정이 먼저 이루어 질 수 있다. 그러나 위치 분포 데이터 생성 및 동작 데이터 중 어느 하나의 데이터 생성 단계가 다른 데이터 생성 단계에 반드시 선행될 필요는 없다. The steps of generating the location distribution data and generating the motion data may be performed simultaneously, or any one data generating process may be performed first. However, the data generation step of any one of the location distribution data generation and the motion data does not necessarily precede the other data generation step.

다음으로, 제어부는 영상 데이터의 위치 분포 데이터 및 동작 데이터를 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성한다. 제어부는 복수개의 영상 데이터에 대한 위치 분포 데이터 및 동작 데이터를 비교하여 복수 개체의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수를 연산하고, 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 이상 개체 데이터를 생성할 수 있다(S1605). Next, the controller compares the position distribution data and the motion data of the image data to generate abnormal entity data indicating the abnormal entity. The control unit compares the position distribution data and motion data of the plurality of image data to calculate the cumulative number of motion detection and non-motion detection of the plurality of objects, and collect abnormal object data according to the cumulative number of motion detection and non-motion detection. can be generated (S1605).

다음으로, 제어부는 이상 개체 데이터의 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 영상 데이터 상에서 복수개의 개체에 대한 픽셀 표시를 제어한다. 제어부는 특정 개체의 움직임이 검출되지 않은 횟수와 움직임이 검출된 횟우에 따라 정상개체 및 이상개체로 분류하고, 영상 데이터 상에서 정상개체 및 이상개체에 대응되는 픽셀값을 다르게 표시한다(S1606).Next, the controller controls pixel display of a plurality of objects on the image data according to the cumulative number of motion detection and non-motion detection of the abnormal entity data. The control unit classifies the object into normal and abnormal objects according to the number of times the movement of a specific object is not detected and the number of times the movement is detected, and displays pixel values corresponding to the normal object and the abnormal object differently on the image data (S1606).

실시예에 따른 이상 개체 검출 방법은 아래와 같은 수학식 1을 적용할 수 있다.The following Equation 1 may be applied to the abnormal object detection method according to the embodiment.

[수학식1][Equation 1]

Pixelt = Pixelt -1(1-μ) + ㎼t - Ft Pixel t = Pixel t -1 (1-μ) + ㎼ t - F t

수학식 1에서 μ는 updateparameter로 설정에 따라 변경될 수 있다.In Equation 1, μ is an update parameter and may be changed according to setting.

수학식 1에서 Pixelt, Pixelt-1은 이상 개체 데이터로서, 이상 개체의 존재 여부를 픽셀에 표시하기 위한 값으로서 픽셀의 농도를 의미할 수 있다. 이상 개체가 존재할 확률이 높은 픽셀일수록 더 진한 색으로 표시할 수 있도록 하는 것이다. 예를 들어, 이상 개체가 존재할 확률이 없으면 원색(하얀색)으로 표시되고, 이상 개체가 존재할 확률이 높을수록 빨강색에 가깝게 표현하고, 이상 개체가 존재할 확률이 아주 높다고 판단되면 가장 진한 빨강색으로 표시되게 하는 것이다. 따라서, Pixelt, Pixelt-1은 0에서 1 사이의 값을 가지도록 설정할 수 있으며, 0에 가까울수록 원색(하얀색)에 가깝게 표시되고, 1에 가까울수록 빨강색으로 표시된다.In Equation 1, Pixel t and Pixelt-1 are abnormal object data, which is a value for indicating whether an abnormal object exists in a pixel, and may mean the density of a pixel. The pixel with a high probability of having an anomaly is displayed in a darker color. For example, if there is no probability that an anomaly exists, the primary color (white) is displayed. The higher the probability of an anomaly, the closer it is expressed to red. will make it Therefore, Pixel t and Pixelt-1 can be set to have a value between 0 and 1, and the closer to 0, the closer to the primary color (white), and the closer to 1, the more red.

수학식 1에서 Pixelt-1는 위치 분포 데이터 및 동작 데이터가 지속되어 반영된 직전 프레임의 이상 개체 데이터이다. 수학식 1에서 Pixelt 현재 프레임의 위치분포 데이터와 동작 데이터를 적용하여 업데이트된 이상 개체 데이터이다.In Equation 1, Pixel t-1 is abnormal entity data of the immediately preceding frame in which position distribution data and motion data are continuously reflected. In Equation 1, Pixel t is abnormal object data updated by applying the position distribution data and motion data of the current frame.

수학식 1에서 Wt는 현재 프레임의 위치 분포 데이터일 수 있다. 위치 분포 데이터는 해당 픽셀에 개체가 존재하는지 확률로서 0에서 1 사이의 값을 가질 수 있다. 위치 분포 데이터에는 update parameter μ가 적용될 수 있다. μ는 아주 작은 값으로 예를 들어 0.001일 수 있다. 즉, 위치 분포 데이터가 오랫동안 지속하여 반영되어야만 서서히 픽셀에 표시되도록 제어하는 것이다. In Equation 1, Wt may be position distribution data of the current frame. The location distribution data may have a value between 0 and 1 as a probability that an object exists in the corresponding pixel. The update parameter μ may be applied to the location distribution data. μ is a very small value, for example 0.001. That is, the position distribution data must be continuously reflected for a long time to be controlled so that it is gradually displayed in the pixel.

수학식 1에서 Ft 는 현재 프레임의 동작 데이터일 수 있다. 동작 데이터는 모션 벡터의 절대값을 산출한 것으로서 0 이상의 값을 가질 수 있다. 모션 벡터의 크기는 개체의 속도에 대응되므로 1이상의 값을 가질 수 있다. 동작 데이터에는 별도의 파라미터 를 반영하지 않아 해당 픽셀에서 동작이 검출된 경우에는 해당 픽셀의 표시는 초기화가 되도록 제어한다.In Equation 1, F t may be motion data of the current frame. The motion data is obtained by calculating the absolute value of the motion vector and may have a value of 0 or more. Since the size of the motion vector corresponds to the speed of the object, it can have a value of 1 or more. Since a separate parameter is not reflected in the motion data, when motion is detected in the corresponding pixel, the display of the corresponding pixel is controlled to be initialized.

또는 실시예에 따른 이상 개체 검출 방법은 아래와 같은 수학식 2를 적용할 수 있다.Alternatively, the following Equation 2 may be applied to the abnormal object detection method according to the embodiment.

[수학식2][Equation 2]

Pixelt = Pixelt -1(1-μ+ ε) + ㎼t - Ft Pixel t = Pixel t -1 (1-μ+ ε) + ㎼ t - F t

※μ: update parameter, ε: offset parameter※μ: update parameter, ε: offset parameter

수힉식2는 수학식1에서 offset parameter ε가 추가된 것으로 수학식1과 동일한 설명은 생략한다. offset parameter ε는 위치 분포 데이터의 누적을 조정하는 parameter로서 μ대비 1/10~1/100의 값을 가질 수 있다. In Equation 2, the offset parameter ε is added in Equation 1, and the same description as in Equation 1 is omitted. The offset parameter ε is a parameter that adjusts the accumulation of position distribution data and may have a value of 1/10 to 1/100 compared to μ.

또는 실시예에 따른 이상 개체 검출 방법은 아래와 같은 수학식 3또는 수학식 4를 적용할 수 있다.Alternatively, the following Equation 3 or Equation 4 may be applied to the abnormal object detection method according to the embodiment.

[수학식3][Equation 3]

Pixelt = Pixelt-1(1-μ) + μWt - κFtPixelt = Pixelt-1 (1-μ) + μWt - κFt

[수학식4][Equation 4]

Pixelt = Pixelt -1(1-μ+ ε) + ㎼t - κFt Pixel t = Pixel t -1 (1 -μ + ε) + ㎼ t - κF t

※μ: update parameter, ε: offset parameter, κ: update parameter※μ: update parameter, ε: offset parameter, κ: update parameter

수학식3 또는 수학식4는 동작 데이터 Ft에 update parameter κ를 곱한 것으로서 수학식1 및 수학식2와 동일한 내용은 생략한다. constant κ는 동작 데이터의 누적을 조정하는 parameter이다.Equation 3 or Equation 4 is obtained by multiplying motion data F t by the update parameter κ, and the same contents as Equations 1 and 2 are omitted. The constant κ is a parameter that adjusts the accumulation of motion data.

수학식 1 내지 4에 따른 이상 개체 검출 방법은 아래와 같은 수학식 5를 추가적으로 적용할 수 있다.Equation 5 below may be additionally applied to the abnormal entity detection method according to Equations 1 to 4.

[수학식5][Equation 5]

max(수학식 1,2,3 또는4, 0)max(Equation 1,2,3 or 4, 0)

수학식 5는 수학식 1,2,3 또는 4의 값이 0 이하로 떨어지는 것을 방지하기 위한 수식이다. 예를들어, 동작 데이터(Ft)의 크기가 다른 파라미터 값의 합보다 크게 되어, 수학식 1,2,3 또는 4의 값이 0보다 작은 음수가 될 경우 이를 보정하여 0으로 표시될 수 있도록 보정하는 제어 방법이다.Equation 5 is an equation for preventing the value of Equation 1, 2, 3 or 4 from falling below zero. For example, when the size of the motion data F t becomes larger than the sum of other parameter values, and the value of Equation 1, 2, 3 or 4 becomes a negative number smaller than 0, it is corrected so that it can be displayed as 0. control method to correct it.

도17은 본 발명의 실시예에 따른 이상 개체 검출 방법의 순서도이다.17 is a flowchart of a method for detecting an anomaly according to an embodiment of the present invention.

도17을 참고하면, 먼저 촬영부는 복수 개체를 포함하는 제1이미지를 촬영한다. 촬영부는 사육장 내부에 배치되어 가금류를 포함하는 복수 개체를 촬영한다(S1701).Referring to FIG. 17 , first, the photographing unit captures a first image including a plurality of objects. The photographing unit is disposed inside the kennel to photograph a plurality of objects including poultry (S1701).

다음으로, 촬영부는 복수 개체를 포함하는 제1이미지를 이용하여 제1영상 데이터를 생성한다. 제1 영상 데이터는 단일 프레임을 의미할 수 있다(S1702).Next, the photographing unit generates the first image data by using the first image including the plurality of objects. The first image data may mean a single frame (S1702).

다음으로, 데이터 처리부는 제1영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제1위치 분포 데이터를 생성한다(S1703).Next, the data processing unit generates first position distribution data representing the position distribution of a plurality of objects by using the first image data (S1703).

다음으로, 모션 검출부는 제1영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제1동작 데이터를 생성한다(S1704).Next, the motion detector generates first motion data representing the motion of the motion object among the plurality of objects by using the first image data (S1704).

제1위치 분포 데이터 생성 및 제1동작 데이터를 생성하는 단계는 동시에 수행되거나, 어느 하나의 데이터 생성 과정이 먼저 이루어 질 수 있다. 그러나 제1위치 분포 데이터 생성 및 제1동작 데이터 중 어느 하나의 데이터 생성 단계가 다른 데이터 생성 단계에 반드시 선행될 필요는 없다. The steps of generating the first location distribution data and generating the first motion data may be performed simultaneously, or any one data generation process may be performed first. However, the step of generating any one of the first position distribution data generation and the first motion data does not necessarily precede the other data generation step.

다음으로, 제어부는 제1위치 분포 데이터 및 제1동작 데이터를 비교하여 이상 개체를 나타내는 제1이상 개체 데이터를 생성한다. 제어부는 제1영상 데이터에 대한 제1위치 분포 데이터 및 제1동작 데이터를 비교하여 복수 개체별 움직임에 따라 제1이상 개체 데이터를 생성할 수 있다(S1705). Next, the controller compares the first location distribution data and the first motion data to generate first abnormal entity data indicating the abnormal entity. The controller may compare the first position distribution data and the first motion data with respect to the first image data to generate the first or more object data according to the movement of the plurality of objects ( S1705 ).

다음으로, 촬영부는 복수 개체를 포함하는 제2이미지를 촬영한다(S1706).Next, the photographing unit captures a second image including a plurality of objects ( S1706 ).

다음으로, 촬영부는 복수 개체를 포함하는 제2이미지를 이용하여 제2영상 데이터를 생성한다. 제2 영상 데이터는 단일 프레임을 의미할 수 있다(S1707).Next, the photographing unit generates second image data by using the second image including the plurality of objects. The second image data may mean a single frame (S1707).

다음으로, 데이터 처리부는 제2영상 데이터를 이용하여 복수 개체의 위치 분포를 나타내는 제2위치 분포 데이터를 생성한다(S1708).Next, the data processing unit generates second position distribution data representing the position distribution of a plurality of objects by using the second image data (S1708).

다음으로, 모션 검출부는 제2영상 데이터를 이용하여 복수 개체 중 동작 개체의 움직임을 나타내는 제2동작 데이터를 생성한다(S1709).Next, the motion detector generates second motion data representing the motion of the motion object among the plurality of objects by using the second image data (S1709).

제2위치 분포 데이터 생성 및 제2동작 데이터를 생성하는 단계는 동시에 수행되거나, 어느 하나의 데이터 생성 과정이 먼저 이루어 질 수 있다. 그러나 제2위치 분포 데이터 생성 및 제2동작 데이터 중 어느 하나의 데이터 생성 단계가 다른 데이터 생성 단계에 반드시 선행될 필요는 없다. The steps of generating the second location distribution data and generating the second motion data may be performed simultaneously, or any one data generation process may be performed first. However, the data generation step of any one of the second position distribution data generation and the second motion data does not necessarily precede the other data generation step.

다음으로, 제어부는 제1이상 개체 데이터, 제2위치 분포 데이터 및 제2 동작 데이터를 비교하여 제2 이상 개체 데이터를 생성한다. 제어부는 제1이상 개체 데이터를 제2위치 분포데이터 및 제2동작 데이터와 비교하여 복수 개체의 움직임 검출 누적 횟수와 복수 개체의 움직임 비검출 누적 횟수를 연산하고, 움직임 검출 누적 횟수와 움직임 비검출 누적 횟수에 따라 제2이상 개체 데이터를 생성한다(S1710). Next, the control unit generates second abnormal entity data by comparing the first abnormal entity data, the second location distribution data, and the second motion data. The control unit compares the first or more entity data with the second location distribution data and the second motion data to calculate the cumulative number of motion detections of the plurality of entities and the cumulative number of motion non-detections of the plurality of entities, and the cumulative number of motion detections and the cumulative number of motion non-detections The second or more entity data is generated according to the number of times (S1710).

다음으로, 제어부는 제2이상 개체 데이터에 따라 영상 데이터 상에서 복수개의 개체에 대한 픽셀 표시를 제어한다. 제어부는 특정 개체의 움직임이 검출되지 않은 횟수와 움직임이 검출된 횟수에 따라 정상개체 및 이상개체로 분류하고, 영상 데이터 상에서 정상개체 및 이상개체에 대응되는 픽셀값을 다르게 표시한다(S1711).Next, the controller controls display of pixels for a plurality of objects on the image data according to the second or more object data. The control unit classifies the specific object into normal and abnormal objects according to the number of times the movement of a specific object is not detected and the number of times that the movement is detected, and displays pixel values corresponding to the normal object and the abnormal object differently on the image data (S1711).

상기S1701 내지 S1711 단계는 제1 이상 개체 데이터 및 제2 이상 개체 데이터를 생성하는 것으로 간략하게 도시되었으나, 이상 개체 데이터는 이미지 촬영을 통한 영상 데이터 생성이 연속적으로 이루어짐에 따라 지속적으로 생성 및 업데이트 되어 픽셀 표시를 제어하도록 동작한다.Although the steps S1701 to S1711 are briefly illustrated as generating the first abnormal entity data and the second abnormal entity data, the abnormal entity data is continuously generated and updated as image data is continuously generated through image capturing, so that the pixel act to control the display.

본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 개체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.The term '~ unit' used in this embodiment means software or a hardware component such as a field-programmable gate array (FPGA) or ASIC, and '~ unit' performs certain roles. However, '-part' is not limited to software or hardware. The '~ unit' may be configured to reside on an addressable storage medium or may be configured to refresh one or more processors. Thus, as an example, '~part' refers to components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. The functions provided in the components and '~ units' may be combined into a smaller number of components and '~ units' or further separated into additional components and '~ units'. In addition, components and '~ units' may be implemented to play one or more CPUs in a device or secure multimedia card.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the above has been described with reference to the preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that it can be done.

100: 촬상 장치
111: 촬영부
112: 데이터 처리부
113: 모션 검출부
114: 제어부
115: 통신부
116: 표시부
117: 유저 인터페이스부
118: 인코딩부
119: 데이터베이스
120: 광원부
121: 팬틸트부
100: imaging device
111: shooting department
112: data processing unit
113: motion detection unit
114: control unit
115: communication department
116: display unit
117: user interface unit
118: encoding unit
119: database
120: light source unit
121: pan tilt part

Claims (10)

복수 개체를 포함하는 이미지로부터 생성된 영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성하는 데이터 처리부;
상기 생성된 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성하는 모션 검출부; 및
상기 위치 분포 데이터 및 상기 동작 데이터를 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 제어부를 포함하며,
상기 위치 분포 데이터는 상기 영상 데이터상에서 픽셀별로 개체의 존재 여부가 확률로서 표시된 데이터이고,
상기 동작 데이터는 상기 영상 데이터상에서 픽셀별로 움직임 존재 여부가 표시된 데이터이고,
상기 제어부는 과거 개체의 존재 여부 확률에 상기 픽셀별로 개체의 존재 여부가 확률로서 표시된 데이터를 추가로 반영하여 상기 위치 분포 데이터상의 해당 픽셀의 픽셀값에 적용하되, 상기 동작 데이터에서 움직임이 존재하는 픽셀과 동일 위치에 있는 픽셀은 초기화하여 상기 이상 개체 데이터를 생성하는 이상 개체 검출 장치.
a data processing unit configured to generate position distribution data representing a position distribution of the plurality of entities by using image data generated from an image including a plurality of entities;
a motion detection unit generating motion data representing a motion of a motion object among the plurality of objects by using the generated image data; and
Comprising a control unit for generating abnormal entity data representing the abnormal entity by comparing the position distribution data and the motion data,
The position distribution data is data in which the presence or absence of an object is displayed as a probability for each pixel on the image data,
The motion data is data indicating whether a motion exists for each pixel on the image data,
The control unit further reflects data indicating the existence of an object as a probability for each pixel to the probability of the existence of an object in the past, and applies it to the pixel value of the corresponding pixel on the location distribution data, wherein a motion is present in the motion data. The abnormal object detection device generates the abnormal object data by initializing the pixels located at the same position as the
제1항에 있어서,
상기 제어부는 초기화 된 픽셀을 상기 영상 데이터상의 원색으로 표시하는 이상 개체 검출 장치.
According to claim 1,
The control unit displays an initialized pixel as a primary color on the image data.
제1항에 있어서,
상기 제어부는 상기 픽셀값이 클 수록 해당 픽셀을 강조하여 표시하는 이상 개체 검출 장치.
According to claim 1,
The control unit emphasizing and displaying the corresponding pixel as the pixel value increases.
제1항에 있어서,
상기 제어부는 하기 수학식 1에 따라 상기 이상 개체 데이터를 생성하는 이상 개체 검출 장치.
[수학식1]
Pixelt = Pixelt-1(1-μ) + μWt - Ft
(수학식 1에서, Pixelt는 현재 프레임의 이상 개체 데이터이고, Pixelt-1은 이전 프레임의 이상 개체 데이터이고, μ는 update parameter, Wt는 현재 프레임의 위치 분포 데이터, Ft 는 현재 프레임의 동작 데이터이고, Ft 는 1이상의 값을 가지되, Pixelt, Pixelt-1 및 Wt은 0에서 1 사이의 값을 가지도록 설정된다)
According to claim 1,
The control unit generates the abnormal entity data according to Equation 1 below.
[Equation 1]
Pixel t = Pixel t-1 (1-μ) + μW t - F t
(In Equation 1, Pixel t is the abnormal object data of the current frame, Pixel t-1 is the abnormal object data of the previous frame, μ is the update parameter, W t is the position distribution data of the current frame , F t is the current frame is the operation data of , and F t has a value of 1 or more, but Pixel t , Pixel t-1 and Wt are set to have a value between 0 and 1)
복수 개체를 포함하는 이미지를 촬영하여 영상 데이터를 생성하는 촬영부;
상기 영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성하는 데이터 처리부;
상기 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성하는 모션 검출부; 및
상기 위치 분포 데이터 및 상기 동작 데이터를 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 제어부를 포함하며,
상기 위치 분포 데이터는 상기 영상 데이터상에서 픽셀별로 개체의 존재 여부가 확률로서 표시된 데이터이고,
상기 동작 데이터는 상기 영상 데이터상에서 픽셀별로 움직임 존재 여부가 표시된 데이터이고,
상기 제어부는 과거 개체의 존재 여부 확률에 상기 픽셀별로 개체의 존재 여부가 확률로서 표시된 데이터를 추가로 반영하여 상기 위치 분포 데이터상의 해당 픽셀의 픽셀값에 적용하되, 상기 동작 데이터에서 움직임이 존재하는 픽셀과 동일 위치에 있는 픽셀은 초기화하여 상기 이상 개체 데이터를 생성하는 촬상 장치.
a photographing unit generating image data by photographing an image including a plurality of objects;
a data processing unit for generating position distribution data representing a position distribution of the plurality of objects by using the image data;
a motion detection unit generating motion data representing a motion of a motion object among the plurality of objects by using the image data; and
Comprising a control unit for generating abnormal entity data representing the abnormal entity by comparing the position distribution data and the motion data,
The position distribution data is data in which the presence or absence of an object is displayed as a probability for each pixel on the image data,
The motion data is data indicating whether a motion exists for each pixel on the image data,
The control unit further reflects data indicating the existence of an object as a probability for each pixel to the probability of the existence of an object in the past, and applies it to the pixel value of the corresponding pixel on the location distribution data, wherein a motion is present in the motion data. An imaging device for generating the abnormal object data by initializing pixels located at the same position as .
제5항에 있어서,
상기 제어부는 초기화 된 픽셀을 상기 영상 데이터상의 원색으로 표시하는 촬상 장치.
6. The method of claim 5,
The control unit displays the initialized pixel as a primary color on the image data.
제5항에 있어서,
상기 제어부는 상기 픽셀값이 클 수록 해당 픽셀을 강조하여 표시하는 촬상 장치.
6. The method of claim 5,
The control unit emphasizing the corresponding pixel as the pixel value increases.
복수 개체를 포함하는 이미지를 촬영하여 영상 데이터를 생성하는 단계;
상기 영상 데이터를 이용하여 상기 복수 개체의 위치 분포를 나타내는 위치 분포 데이터를 생성하는 단계;
상기 영상 데이터를 이용하여 상기 복수 개체 중 동작 개체의 움직임을 나타내는 동작 데이터를 생성하는 단계; 및
상기 위치 분포 데이터 및 상기 동작 데이터를 비교하여 이상 개체를 나타내는 이상 개체 데이터를 생성하는 단계를 포함하며,
상기 위치 분포 데이터는 상기 영상 데이터상에서 픽셀별로 개체의 존재 여부가 확률로서 표시된 데이터이고,
상기 동작 데이터는 상기 영상 데이터상에서 픽셀별로 움직임 존재 여부가 표시된 데이터이고,
상기 이상 개체 데이터를 생성하는 단계는, 과거 개체의 존재 여부 확률에 상기 픽셀별로 개체의 존재 여부가 확률로서 표시된 데이터를 추가로 반영하여 상기 위치 분포 데이터상의 해당 픽셀의 픽셀값에 적용하되, 상기 동작 데이터에서 움직임이 존재하는 픽셀과 동일 위치에 있는 픽셀은 초기화하여 상기 이상 개체 데이터를 생성하는 이상 개체 검출 방법.
generating image data by photographing an image including a plurality of objects;
generating position distribution data representing the position distribution of the plurality of objects by using the image data;
generating motion data representing a motion of a motion object among the plurality of objects by using the image data; and
Comprising the step of generating abnormal entity data representing the abnormal entity by comparing the position distribution data and the motion data,
The position distribution data is data in which the presence or absence of an object is displayed as a probability for each pixel on the image data,
The motion data is data indicating whether a motion exists for each pixel on the image data,
In the generating of the abnormal entity data, data indicating the existence of an entity for each pixel as a probability is additionally reflected in the probability of the existence of an entity in the past and applied to the pixel value of the corresponding pixel on the location distribution data, A method for detecting anomalies in data, wherein pixels at the same position as pixels in motion are initialized to generate the abnormal entity data.
제8항에 있어서,
초기화 된 픽셀을 상기 영상 데이터상의 원색으로 표시하는 단계를 더 포함하는 이상 개체 검출 방법.
9. The method of claim 8,
and displaying the initialized pixels as primary colors on the image data.
제8항에 있어서,
상기 픽셀값이 클 수록 해당 픽셀을 강조하여 표시하는 단계를 더 포함하는 이상 개체 검출 방법.
9. The method of claim 8,
and emphasizing and displaying the corresponding pixel as the pixel value is larger.
KR1020190008170A 2018-02-12 2019-01-22 Apparatus and method for detecting abnormal object and imaging device comprising the same KR102307609B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190008170A KR102307609B1 (en) 2018-02-12 2019-01-22 Apparatus and method for detecting abnormal object and imaging device comprising the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180017177A KR101944374B1 (en) 2018-02-12 2018-02-12 Apparatus and method for detecting abnormal object and imaging device comprising the same
KR1020190008170A KR102307609B1 (en) 2018-02-12 2019-01-22 Apparatus and method for detecting abnormal object and imaging device comprising the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180017177A Division KR101944374B1 (en) 2018-02-12 2018-02-12 Apparatus and method for detecting abnormal object and imaging device comprising the same

Publications (2)

Publication Number Publication Date
KR20190098048A KR20190098048A (en) 2019-08-21
KR102307609B1 true KR102307609B1 (en) 2021-10-05

Family

ID=67808454

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190008170A KR102307609B1 (en) 2018-02-12 2019-01-22 Apparatus and method for detecting abnormal object and imaging device comprising the same

Country Status (1)

Country Link
KR (1) KR102307609B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012212236A (en) * 2011-03-30 2012-11-01 Secom Co Ltd Left person detection device
JP2015069253A (en) * 2013-09-27 2015-04-13 株式会社リコー Individual condition determination device, individual condition determination method, and individual condition determination program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150080863A (en) * 2014-01-02 2015-07-10 삼성테크윈 주식회사 Apparatus and method for providing heatmap

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012212236A (en) * 2011-03-30 2012-11-01 Secom Co Ltd Left person detection device
JP2015069253A (en) * 2013-09-27 2015-04-13 株式会社リコー Individual condition determination device, individual condition determination method, and individual condition determination program

Also Published As

Publication number Publication date
KR20190098048A (en) 2019-08-21

Similar Documents

Publication Publication Date Title
CN109461168B (en) Target object identification method and device, storage medium and electronic device
US20210227126A1 (en) Deep learning inference systems and methods for imaging systems
US20190057588A1 (en) Robust Motion Filtering for Real-time Video Surveillance
IL261696A (en) System and method for training object classifier by machine learning
US11350610B2 (en) Rearing place management device and method
KR101944374B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR102615986B1 (en) Apparatus and method for determining abnormal object
KR102609461B1 (en) Imaging device, apparatus and method for managing of fowl comprising the same
US20190122383A1 (en) Image processing apparatus and method
CN113273179B (en) Device for managing farm environment
KR20200002314A (en) System, terminal and method for managing farm environment
KR20200002315A (en) System, terminal and method for managing farm environment
KR20200139616A (en) Apparatus and method for detecting abnormal objects
CN114359014A (en) Dynamic driver mechanism for rolling shutter sensor to obtain structured light patterns
KR20200009530A (en) System and method for detecting abnormal object
US11605220B2 (en) Systems and methods for video surveillance
KR102505691B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR102307609B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR102606062B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
Jeyabharathi et al. Efficient background subtraction for thermal images using reflectional symmetry pattern (RSP)
KR20190113360A (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR102619829B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR20190114529A (en) System and method for detecting abnormal object
KR102609804B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR20190113361A (en) Apparatus, system and method for detecting abnormal object, and imaging device comprising the same

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant