KR102609461B1 - Imaging device, apparatus and method for managing of fowl comprising the same - Google Patents

Imaging device, apparatus and method for managing of fowl comprising the same Download PDF

Info

Publication number
KR102609461B1
KR102609461B1 KR1020180017176A KR20180017176A KR102609461B1 KR 102609461 B1 KR102609461 B1 KR 102609461B1 KR 1020180017176 A KR1020180017176 A KR 1020180017176A KR 20180017176 A KR20180017176 A KR 20180017176A KR 102609461 B1 KR102609461 B1 KR 102609461B1
Authority
KR
South Korea
Prior art keywords
data
color
image data
head portion
poultry
Prior art date
Application number
KR1020180017176A
Other languages
Korean (ko)
Other versions
KR20190103510A (en
Inventor
김일봉
류승훈
신제용
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020180017176A priority Critical patent/KR102609461B1/en
Publication of KR20190103510A publication Critical patent/KR20190103510A/en
Application granted granted Critical
Publication of KR102609461B1 publication Critical patent/KR102609461B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Animal Husbandry (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Mining & Mineral Resources (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Agronomy & Crop Science (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명의 실시예에 따르면, 이미지를 촬영하여 영상 데이터를 생성하는 이미지 센서; 상기 영상 데이터를 이용하여 개체를 검출하고, 상기 개체의 헤드부를 판별하고 상기 헤드부에 대한 분포 데이터를 생성하는 데이터 처리부; 및 상기 영상 데이터 및 상기 분포 데이터를 관리서버로 전송하는 통신부를 포함하는 촬상 장치를 제공한다.According to an embodiment of the present invention, an image sensor that captures an image and generates image data; a data processing unit that detects an object using the image data, determines a head portion of the object, and generates distribution data for the head portion; and a communication unit that transmits the image data and the distribution data to a management server.

Description

촬상 장치, 이를 포함하는 가금류 관리 시스템 및 방법{IMAGING DEVICE, APPARATUS AND METHOD FOR MANAGING OF FOWL COMPRISING THE SAME}IMAGING DEVICE, APPARATUS AND METHOD FOR MANAGING OF FOWL COMPRISING THE SAME}

본 발명의 일실시예는 촬상 장치, 이를 포함하는 가금류 관리 시스템 및 방법에 관한 것이다.One embodiment of the present invention relates to an imaging device and a poultry management system and method including the same.

축산물에 대한 소비가 늘어나면서, 가축을 효율적으로 관리하는 방법에 대한 다양한 방안들이 제안되고 있다.As consumption of livestock products increases, various ways to manage livestock efficiently are being proposed.

종래에는 사람이 각각의 가축의 상태를 파악하여, 이상 징후가 나타나는 가축에 대하여 진료를 받게 하거나 따로 격리시켰다. 다만, 가금류와 같이 가축의 수가 많은 경우 모든 가축을 관리하기 위해서는 많은 인력이 필요하다는 문제점이 있었다.Conventionally, people would check the condition of each livestock, and receive medical treatment or isolate livestock that showed abnormal signs. However, when there are a large number of livestock, such as poultry, there is a problem that a lot of manpower is needed to manage all the livestock.

또한, 일부 가축에 전염병이 발생하면 가축의 대부분이 폐사하는 결과가 초래될 수 있으므로, 사람의 출입을 최소화하면서 가축의 이상 여부를 빠르고 정확하게 판단할 수 있는 차단방역 및 예방방역을 위한 방안이 요구되고 있다.In addition, if an infectious disease occurs in some livestock, it may result in the death of most of the livestock, so biosecurity and preventive measures that can quickly and accurately determine whether there is an abnormality in livestock while minimizing human access are required. there is.

또한, 교통 수단의 발달로 인하여 특정 지역에서 발생된 질병은 특정한 장소에 한정되지 않고 전국적으로 빠른 시간 내에 전염되는 현실에서 초기에 빠른 질병 판단이 요구되고 있다. 현재 가축의 질병을 판단하기 위해 농장주 또는 일반 작업자가 주기적으로 순찰을 돌며 사육 가축의 상태를 살펴보고 주관적인 판단에 따라 질병의 여부를 판단하고 있다. 그러나 이러한 방식은 농장주 또는 작업자의 개별적인 경험과 역량에 따라 판단 기준이 달라지게 되며 정확도가 떨어진다는 단점이 있다. 또한, 사육장의 잦은 출입으로 인하여 전염성 질병의 확산을 야기할 수 있다는 문제점이 있다.In addition, due to the development of means of transportation, diseases that occur in a specific region are not limited to a specific location and are spread nationwide in a short period of time, so quick disease diagnosis is required at an early stage. Currently, in order to determine diseases in livestock, farm owners or general workers patrol periodically to check the condition of farmed livestock and determine whether there is a disease based on subjective judgment. However, this method has the disadvantage that the judgment criteria vary depending on the individual experience and capabilities of the farm owner or worker and that accuracy is low. In addition, there is a problem that frequent entry into the breeding farm may cause the spread of infectious diseases.

본 발명이 이루고자 하는 기술적 과제는 사육장 내부를 촬영한 영상 데이터 상에서 질병에 걸린 가능성이 높은 개체를 검출할 수 있는 촬상 장치, 이를 포함하는 가금류 분석 시스템 및 방법을 제공하는데 있다.The technical problem to be achieved by the present invention is to provide an imaging device capable of detecting individuals likely to have a disease from image data captured inside a breeding farm, and a poultry analysis system and method including the same.

본 발명의 실시예에 따르면, 이미지를 촬영하여 영상 데이터를 생성하는 이미지 센서; 상기 영상 데이터를 이용하여 개체를 검출하고, 상기 개체의 헤드부를 판별하고 상기 헤드부에 대한 분포 데이터를 생성하는 데이터 처리부; 및 상기 영상 데이터 및 상기 분포 데이터를 관리서버로 전송하는 통신부를 포함하는 촬상 장치를 제공한다.According to an embodiment of the present invention, an image sensor that captures an image and generates image data; a data processing unit that detects an object using the image data, determines a head portion of the object, and generates distribution data for the head portion; and a communication unit that transmits the image data and the distribution data to a management server.

상기 분포 데이터는 상기 헤드부에 대한 히트맵(heat map) 및 좌표 정보 중 적어도 하나를 포함할 수 있다.The distribution data may include at least one of a heat map and coordinate information about the head portion.

상기 데이터 처리부는 상기 분포 데이터를 이용하여 상기 영상 데이터 상에서 상기 헤드부에 대응되는 위치의 색상을 검출하여 상기 헤드부에 대한 색상 데이터를 생성할 수 있다.The data processing unit may detect the color of a position corresponding to the head unit on the image data using the distribution data and generate color data for the head unit.

상기 데이터 처리부는 상기 영상 데이터를 복수개의 구역으로 구획하고, 상기 헤드부에 대한 구역별 색상 데이터를 생성할 수 있다.The data processing unit may divide the image data into a plurality of zones and generate color data for each zone for the head unit.

상기 통신부는 상기 색상 데이터 및 상기 구역별 색상 데이터 중적어도 하나를 상기 관리서버로 전송할 수 있다.The communication unit may transmit at least one of the color data and the color data for each zone to the management server.

상기 색상 데이터 및 상기 구역별 색상 데이터 중 적어도 하나를 이용하여 가금류의 건강 상태를 판단하는 제어부를 더 포함할 수 있다.It may further include a control unit that determines the health status of the poultry using at least one of the color data and the color data for each zone.

상기 제어부는 상기 색상 데이터를 기 설정된 임계범위와 비교하여 상기 가금류의 건강 상태를 판단할 수 있다.The control unit may determine the health status of the poultry by comparing the color data with a preset threshold range.

본 발명의 실시예에 따르면, 이미지를 촬영하여 영상 데이터를 생성하는 이미지 센서; 상기 영상 데이터를 이용하여 상기 개체의 헤드부를 판별하고 상기 헤드부에 대한 분포 데이터를 생성하는 데이터 처리부; 및 상기 영상 데이터 및 상기 분포 데이터를 전송하는 통신부를 포함하는 촬상 장치; 및 상기 영상 데이터 및 상기 분포데이터를 수신하고, 상기 분포 데이터를 이용하여 상기 영상 데이터 상에서 상기 헤드부에 대응되는 위치의 색상을 검출하고, 검출된 색상을 분석하여 가금류의 건강 상태를 판단하는 관리 서버를 포함하는 가금류 관리 시스템을 제공한다.According to an embodiment of the present invention, an image sensor that captures an image and generates image data; a data processing unit that determines a head portion of the object using the image data and generates distribution data for the head portion; and an imaging device including a communication unit that transmits the image data and the distribution data; and a management server that receives the image data and the distribution data, detects the color of the position corresponding to the head portion in the image data using the distribution data, and analyzes the detected color to determine the health status of the poultry. Provides a poultry management system including.

본 발명의 실시예에 따르면, 이미지를 촬영하여 영상 데이터를 생성하는 단계; 상기 영상 데이터에서 개체를 검출하는 단계; 상기 개체의 헤드부를 판별하는 단계; 상기 헤드부에 대한 분포 데이터를 생성하는 단계; 상기 분포 데이터를 이용하여 상기 영상 데이터 상에서 상기 헤드부에 대응되는 위치의 색상을 검출하는 단계; 검출된 색상을 분석하여 가금류의 건강 상태를 판단하는 단계를 포함하는 가금류 관리 방법을 제공한다.According to an embodiment of the present invention, capturing an image to generate image data; detecting an object from the image data; determining the head portion of the object; generating distribution data for the head portion; detecting the color of a position corresponding to the head portion on the image data using the distribution data; Provides a poultry management method including the step of determining the health status of poultry by analyzing the detected color.

본 발명인 가금류 분석 장치 및 촬상 장치는 사육장 내부를 촬영한 영상데이터 상에서 질병에 걸린 가능성이 높은 이상 개체를 검출할 수 있다.The poultry analysis device and imaging device of the present invention can detect abnormal individuals that are highly likely to have a disease on image data captured inside a breeding farm.

또한, 이상 개체를 추적하여 감시할 수 있다.Additionally, abnormal objects can be tracked and monitored.

또한, 이상 개체 발생시 관리자에게 알림 또는 경고를 송출할 수 있다.Additionally, when an abnormal object occurs, a notification or warning can be sent to the administrator.

또한, 관리 서버에서 분석 데이터의 연산량을 감소시키고, 연산 속도를 향상시킬 수 있다.Additionally, the amount of calculation of analysis data in the management server can be reduced and calculation speed can be improved.

도 1은 본 발명의 실시예에 따른 사육장 관리 시스템의 개념도이다.
도 2는 본 발명의 실시예에 따른 촬상 장치의 블록도이다.
도3은 본 발명의 실시예에 따른 히트맵의 개념도이다.
도4는 본 발명의 실시예에 따른 좌표정보의 개념도이다.
도5는 본 발명의 실시예에 따른 색상 데이터의 개념도이다.
도6은 본 발명의 실시예에 따른 구역별 색상 데이터의 개념도이다.
도7은 본 발명의 실시예에 따른 색상 데이터를 이용한 가금류 건강 상태 판단을 설명하기 위한 도면이다.
도8은 본 발명의 실시예에 따른 구역별 색상 데이터 판단 이용한 가금류 건강 상태 판단을 설명하기 위한 도면이다.
도9는 본 발명의 실시예에 따른 가금류 관리 시스템의 동작을 설명하기 위한 개념도이다.
도10 내지 13은 본 발명의 실시예에 따른 가금류 관리 방법의 순서도이다.
1 is a conceptual diagram of a breeding farm management system according to an embodiment of the present invention.
Figure 2 is a block diagram of an imaging device according to an embodiment of the present invention.
Figure 3 is a conceptual diagram of a heat map according to an embodiment of the present invention.
Figure 4 is a conceptual diagram of coordinate information according to an embodiment of the present invention.
Figure 5 is a conceptual diagram of color data according to an embodiment of the present invention.
Figure 6 is a conceptual diagram of color data for each zone according to an embodiment of the present invention.
Figure 7 is a diagram for explaining poultry health status determination using color data according to an embodiment of the present invention.
Figure 8 is a diagram illustrating the determination of poultry health status using color data determination for each zone according to an embodiment of the present invention.
Figure 9 is a conceptual diagram for explaining the operation of a poultry management system according to an embodiment of the present invention.
10 to 13 are flowcharts of a poultry management method according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Since the present invention can be subject to various changes and can have various embodiments, specific embodiments will be illustrated and described in the drawings. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention.

제2, 제1 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms containing ordinal numbers, such as second, first, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, the second component may be referred to as the first component without departing from the scope of the present invention, and similarly, the first component may also be referred to as the second component. The term and/or includes any of a plurality of related stated items or a combination of a plurality of related stated items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless explicitly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.

이하, 첨부된 도면을 참조하여 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings, but identical or corresponding components will be assigned the same reference numbers regardless of reference numerals, and duplicate descriptions thereof will be omitted.

도 1은 본 발명의 실시예에 따른 사육장의 개념도이고, 도 2는 본 발명의 실시예에 따른 촬상 장치의 블록도이다. Figure 1 is a conceptual diagram of a breeding farm according to an embodiment of the present invention, and Figure 2 is a block diagram of an imaging device according to an embodiment of the present invention.

도 1 내지 2를 참조하면, 먼저 사육장(10)은 가축을 사육하는 축사를 의미한다. 가축은 닭, 오리 등의 가금류뿐만 아니라, 소, 돼지 등 축사 내에서 집단으로 사육되는 다양한 종류의 동물일 수 있다.Referring to Figures 1 and 2, first, the breeding farm 10 refers to a barn for raising livestock. Livestock may include not only poultry such as chickens and ducks, but also various types of animals raised in groups in livestock farms, such as cows and pigs.

촬상 장치(100)는 사육장(10) 내의 환경을 검출하고, 이를 관리 서버(200) 및 공조 장치(300) 중 적어도 하나에 전송할 수 있다. 이를 위하여, 촬상 장치(100)는 관리 서버(200) 및 공조 장치(300)와 유선 또는 무선으로 통신할 수 있다. 여기서, 촬상 장치(100)가 관리 서버(200) 및 공조 장치(300)와 각각 통신하는 것으로 도시되어 있으나, 이로 제한되지 않으며, 촬상 장치(100)가 관리 서버(200)와 통신하고, 관리 서버(200)가 공조 장치(300)와 통신할 수도 있다. The imaging device 100 may detect the environment within the breeding farm 10 and transmit it to at least one of the management server 200 and the air conditioning device 300. To this end, the imaging device 100 may communicate with the management server 200 and the air conditioning device 300 by wire or wirelessly. Here, the imaging device 100 is shown to communicate with the management server 200 and the air conditioning device 300, respectively, but is not limited to this, and the imaging device 100 communicates with the management server 200, and the management server (200) may communicate with the air conditioning device (300).

사육장(10) 내에는 복수개의 촬상 장치가 배치될 수 있다. 촬상 장치(100)는 이미지 센서(111)에서 촬영한 영상 데이터를 관리 서버(200)로 전송할 수 있다. 또는, 사육장(10)내에는 별도의 데이터 수집장치(150)가 배치되어 복수개의 촬상 장치(100)로부터 영상 데이터를 수집하여 관리 서버(200)로 전송할 수 있다. 사육장(10) 내부의 상태를 정밀하게 분석하기 위하여 촬상 장치(100)의 영상 데이터는 고화질, 고용량의 특성을 가질 수 있다. 따라서, 복수개의 촬상 장치(100)에서 촬영된 영상 데이터를 실시간으로 원격의 관리 서버(200)로 전송하기 위하여서는 큰 대역폭이 요구될 수 있으며, 이에 따라 전송 속도가 저하될수 있다. 따라서, 별도의 데이터 수집장치(150)에서는 사육장(10)내의 촬상 장치(100)로부터 영상 데이터를 수집하여 인코딩 한 후 관리 서버(200)로 전송함으로써 통신 대역폭을 저감시키고, 전송 속도를 향상시킬 수 있다. 또는 촬상 장치(100)는 영상 데이터를 이용하여 사육장(10)상태를 분석하기 위한 1차 분석을 수행한 후, 가공된 데이터를 데이터 수집장치에 전달하거나 또는 관리 서버(200)에 전송할 수 있다. 즉, 촬상 장치(100)는 사육장(10)의 상태 분석을 위하여 필요한 데이터만을 선별하여 데이터 수집장치(150)에 전달하거나 또는 관리 서버(200)에 전송함으로써 통신 자원을 효율적으로 관리할 수 있다. 또는 촬상 장치(100)는 사육장(10)을 촬영한 영상 데이터를 이용하여 사육장(10) 내부 상태를 1차적으로 분석하여 그 결과를 데이터 수집장치(150)에 전달하거나 또는 관리 서버(200)에 전송할 수 있다.A plurality of imaging devices may be disposed within the breeding farm 10. The imaging device 100 may transmit image data captured by the image sensor 111 to the management server 200. Alternatively, a separate data collection device 150 may be placed in the breeding farm 10 to collect image data from a plurality of imaging devices 100 and transmit it to the management server 200. In order to precisely analyze the condition inside the breeding farm 10, the image data of the imaging device 100 may have high-definition and high-capacity characteristics. Therefore, in order to transmit image data captured by a plurality of imaging devices 100 to the remote management server 200 in real time, a large bandwidth may be required, and accordingly, the transmission speed may decrease. Therefore, the separate data collection device 150 collects image data from the imaging device 100 in the breeding farm 10, encodes it, and then transmits it to the management server 200, thereby reducing communication bandwidth and improving transmission speed. there is. Alternatively, the imaging device 100 may perform primary analysis to analyze the state of the breeding farm 10 using image data and then transmit the processed data to the data collection device or to the management server 200. That is, the imaging device 100 can efficiently manage communication resources by selecting only the data necessary for analyzing the state of the breeding farm 10 and transmitting it to the data collection device 150 or the management server 200. Alternatively, the imaging device 100 primarily analyzes the internal state of the breeding farm 10 using image data captured in the breeding farm 10 and transmits the results to the data collection device 150 or the management server 200. Can be transmitted.

관리 서버(200)는 퍼스널 컴퓨터(personal computer, PC), 태블릿 PC, 휴대단말 등을 포함하는 서버일 수 있다. 촬상 장치(100)가 관리 서버(200)에게 사육장(10) 내의 환경을 전송하는 경우, 관리자는 관리 서버(200)에 출력된 화면 등을 통하여 사육장(10) 내의 환경을 인지할 수 있다. 예를 들어, 촬상 장치(100)가 사육장(10) 내의 이상상황을 포착하여 이를 관리 서버(200)에게 전송한 경우, 관리자는 관리 서버(200)에 출력된 화면을 통하여 사육장(10) 내에 이상상황이 발생하였음을 인지할 수 있으며, 이상상황에 대하여 초기에 대응할 수 있다. 여기서, 이상상황은, 예를 들어 질병에 걸린 가축의 발생, 가축의 임신, 가축의 생장 기간, 사육장(10) 내 습도, 온도, 특정 분자의 농도 이상 등일 수 있다. The management server 200 may be a server including a personal computer (PC), tablet PC, mobile terminal, etc. When the imaging device 100 transmits the environment in the kennel 10 to the management server 200, the manager can recognize the environment in the kennel 10 through a screen output to the management server 200. For example, when the imaging device 100 captures an abnormal situation in the breeding farm 10 and transmits it to the management server 200, the manager can detect the abnormality in the breeding farm 10 through the screen displayed on the management server 200. You can recognize that a situation has occurred and respond early to abnormal situations. Here, the abnormal situation may be, for example, the occurrence of diseased livestock, pregnancy of livestock, growth period of livestock, humidity, temperature, concentration of a specific molecule, etc. in the breeding farm 10.

또한, 관리 서버(200)는 촬상 장치(100) 또는 데이터 수집장치(150)에서 전송한 데이터를 이용하여 사육장 상태를 분석할 수 있다. 예를 들면, 관리 서버(100)는 복수개의 촬상 장치(100) 또는 데이터 수집장치(150)에서 1차적으로 가공된 데이터를 수신하여 사육장 상태에 대한 보다 정밀한 분석을 수행할 수 있다. 관리 서버(200)는 촬상 장치(100)의 통신부(114)와 데이터 통신을 수행하거나 또는 데이터 수집장치(150)에 장착된 통신 모듈(미도시)과 데이터 통신을 수행할 수 있다. 관리 서버(200)는 촬상 장치(100)에서 촬영한 원본 영상과 1차적으로 가공된 가공 영상 데이터를 수신할 수 있다. 이 때, 가공 영상 데이터는 사육장 관리 장치(100) 또는 촬상 장치(100)에서 원본 영상에 대하여 1차적인 분석을 수행하고, 이를 인코딩한 데이터를 의미할 수 있다.Additionally, the management server 200 may analyze the condition of the breeding farm using data transmitted from the imaging device 100 or the data collection device 150. For example, the management server 100 may receive primarily processed data from a plurality of imaging devices 100 or data collection devices 150 to perform a more precise analysis of the state of the breeding farm. The management server 200 may perform data communication with the communication unit 114 of the imaging device 100 or may perform data communication with a communication module (not shown) mounted on the data collection device 150. The management server 200 may receive the original image captured by the imaging device 100 and the primarily processed image data. At this time, the processed image data may refer to data in which the kennel management device 100 or the imaging device 100 performs primary analysis on the original image and encodes it.

공조 장치(300)는 사육장(10)의 온도를 조절하는 장치이다. 촬상 장치(100)가 사육장(10) 내 온도이상을 포착하여 관리 서버(200)에게 전송한 경우, 관리자는 관리 서버(200)에 출력된 화면을 통하여 사육장(10) 내 온도이상이 발생하였음을 인지할 수 있으며, 공조 장치(300)를 제어하여 사육장(10) 내 온도를 정상화할 수 있다. 또는, 촬상 장치(100)가 사육장(10) 내 온도이상을 검출하여 공조 장치(300)에게 직접 전달한 경우, 공조 장치(300)가 직접 사육장(10) 내 온도를 정상화할 수도 있다. 예를 들어, 사육장(10) 내의 온도가 가축이 생활하기에 적절한 온도보다 낮거나, 높은 경우, 가축들의 움직임이 둔화되는 경향이 있다. 이에 따라, 촬상 장치(100), 관리 서버(200), 또는 공조 장치(300)는 사육장(10) 내 온도이상을 검출하여 사육장(10) 내 온도를 정상화할 수 있다. The air conditioning device 300 is a device that controls the temperature of the breeding farm 10. When the imaging device 100 captures a temperature abnormality in the breeding farm 10 and transmits it to the management server 200, the manager reports that a temperature abnormality has occurred in the breeding farm 10 through the screen displayed on the management server 200. It can be recognized, and the temperature in the breeding farm 10 can be normalized by controlling the air conditioning device 300. Alternatively, when the imaging device 100 detects a temperature abnormality in the breeding farm 10 and directly transmits the detected temperature to the air conditioning device 300, the air conditioning device 300 may directly normalize the temperature in the breeding farm 10. For example, if the temperature in the breeding farm 10 is lower or higher than the temperature appropriate for livestock living, the livestock's movement tends to slow down. Accordingly, the imaging device 100, the management server 200, or the air conditioning device 300 can detect a temperature abnormality within the breeding farm 10 and normalize the temperature within the breeding farm 10.

촬상 장치(100)는 이미지 센서(111), 데이터 처리부(112), 모션 검출부(113), 제어부(113), 통신부(114), 표시부(115), 유저 인터페이스부(116), 인코딩부(117), 데이터 베이스(118), 광원부(119), 팬틸트부(120)를 포함한다. The imaging device 100 includes an image sensor 111, a data processing unit 112, a motion detection unit 113, a control unit 113, a communication unit 114, a display unit 115, a user interface unit 116, and an encoding unit 117. ), database 118, light source unit 119, and pan/tilt unit 120.

촬상 장치(100)는 사육장(10)내에 복수개가 설치될 수 있다. 예를 들어, 촬상 장치(100)는 사육장(10)의 상부에 배치된 적어도 하나의 상부 촬상 장치 및 사육장의 측부에 배치된 적어도 하나의 측부 촬상 장치를 포함할 수 있다. 상부 촬상 장치 및 측부 촬상 장치 각각은 유선 또는 무선으로 통신이 가능하여 실시간 영상의 송출이 가능한 IP 카메라일 수 있다. 본 발명의 실시예에서는 사육장 상부에 하나의 촬상 장치(100)가 배치되어 있는 것을 예로 들어 설명하기로 한다.A plurality of imaging devices 100 may be installed in the breeding farm 10. For example, the imaging device 100 may include at least one upper imaging device disposed on the upper part of the kennel 10 and at least one side imaging device disposed on the side of the kennel 10. Each of the upper imaging device and the side imaging device may be an IP camera capable of transmitting real-time images through wired or wireless communication. In an embodiment of the present invention, an example will be given where one imaging device 100 is disposed at the top of a breeding farm.

이미지 센서(111)는 복수 개체를 포함하는 이미지를 촬영하여 영상 데이터를 생성할 수 있다. 본 발명의 실시예에서 복수 개체는 사육장 내부에서 사육되는 가금류를 의미할 수 있다. 이미지 센서(111)는 COMS(complementary metal-oxide semiconductor) 모듈 또는 CCD(charge coupled device) 모듈 등을 이용하여 피사체를 촬영하는 이미지 센서일 수 있다. 이때, 입력되는 영상 프레임은 렌즈를 통해 이미지 센서(111) 내의 COMS 모듈 또는 CCD 모듈로 제공되고, COMS 모듈 또는 CCD 모듈은 렌즈를 통과한 피사체의 광신호를 전기적 신호(영상 데이터)로 변환하여 출력한다. The image sensor 111 may generate image data by capturing an image including a plurality of objects. In an embodiment of the present invention, a plurality of individuals may refer to poultry raised inside a breeding farm. The image sensor 111 may be an image sensor that photographs a subject using a complementary metal-oxide semiconductor (COMS) module or a charge coupled device (CCD) module. At this time, the input image frame is provided to the COMS module or CCD module in the image sensor 111 through the lens, and the COMS module or CCD module converts the optical signal of the subject that has passed through the lens into an electrical signal (image data) and outputs it. do.

이미지 센서(111)는 시야각이 넓은 어안렌즈 또는 광각렌즈를 포함할 수 있다. 이에 따라, 하나의 촬상 장치(100)가 사육장(10) 내부의 전체 공간을 촬영하는 것이 가능하다. The image sensor 111 may include a fisheye lens or a wide-angle lens with a wide viewing angle. Accordingly, it is possible for one imaging device 100 to photograph the entire space inside the breeding farm 10.

또한, 이미지 센서(111)는 깊이 카메라일 수 있다. 이미지 센서(111)는 다양한 깊이 인식 방식 중 어느 하나의 방식으로 구동될 수 있으며, 이미지 센서(111)를 통하여 촬영된 영상에는 깊이 정보가 포함될 수 있다. 이미지 센서(111)는 예를 들어, 키넥트 센서일 수 있다. 키넥트 센서는 구조광 투영 방식의 깊이 카메라로서, 프로젝터나 레이저를 이용하여 정의된 패턴 영상을 투영시키고 카메라를 통하여 패턴이 투영된 영상을 획득함으로써 장면의 삼차원 정보를 획득할 수 있다. 이러한 키넥트 센서는 적외선 레이저를 이용해 패턴을 조사하는 적외선 방사체, 및 적외선 영상을 촬영하는 적외선 카메라를 포함하며, 일반적인 웹캠과 같은 기능을 하는 RGB 카메라가 적외선 방사체와 적외선 카메라 사이에 배치되어 있다. 이 외에도, 키넥트 센서에는 마이크 배열과 카메라의 각도를 조절하는 팬틸트부(120)가 더 구성될 수 있다.Additionally, the image sensor 111 may be a depth camera. The image sensor 111 may be driven by any one of various depth recognition methods, and an image captured through the image sensor 111 may include depth information. The image sensor 111 may be, for example, a Kinect sensor. The Kinect sensor is a structured light projection depth camera that can obtain three-dimensional information of a scene by projecting a defined pattern image using a projector or laser and acquiring the projected image of the pattern through the camera. This Kinect sensor includes an infrared emitter that irradiates a pattern using an infrared laser, and an infrared camera that takes infrared images, and an RGB camera that functions like a general webcam is placed between the infrared emitter and the infrared camera. In addition, the Kinect sensor may further include a pan/tilt unit 120 that adjusts the angle of the microphone array and camera.

키넥트 센서의 기본적인 원리는, 적외선 방사체에서 조사된 레이저 패턴이 물체에 투영되어 반사되면, 반사 지점에서의 패턴의 위치 및 크기를 이용해 물체 표면까지의 거리를 구하게 된다. 이러한 원리에 따라, 이미지 센서(111)는 축사 내 공간으로 레이저 패턴을 조사하고, 개체에서 반사된 레이저 패턴을 센싱하여 개체 별 깊이 정보를 포함하는 영상 데이터를 생성할 수 있다.The basic principle of the Kinect sensor is that when a laser pattern emitted from an infrared emitter is projected and reflected on an object, the distance to the object surface is calculated using the position and size of the pattern at the reflection point. According to this principle, the image sensor 111 can generate image data including depth information for each object by irradiating a laser pattern into the space within the livestock barn and sensing the laser pattern reflected from the object.

데이터 처리부(112)는 영상 데이터에서 개체를 검출하며, 개체의 헤드부와 바디부를 판별하여 상기 헤드부에 대한 분포 데이터를 생성할 수 있다. 본 발명의 실시예에서 헤드부는 개체의 머리를 구성하는 픽셀의 집합을 의미할 수 있으며, 바디부는 개체의 몸통을 구성하는 픽셀의 집합을 의미할 수 있다. 예를 들어, 개체가 닭인 경우, 헤드부는 벼슬을 포함하는 머리를 의미할 수 있다.The data processing unit 112 may detect an object from image data, determine the head and body of the object, and generate distribution data for the head. In an embodiment of the present invention, the head part may refer to a set of pixels constituting the head of an object, and the body part may refer to a set of pixels constituting the body of the object. For example, if the object is a chicken, the head part may refer to the head including the crest.

예를 들면, 데이터 처리부(112)는 영상 데이터에서 개체의 외곽선을 검출하고, 검출된 외곽선과 데이터 베이스(118)에 미리 저장된 동물 개체의 외형을 비교하여 미리 저장된 동물 개체의 외형과 매칭되는 외곽선을 가진 개체를 동물 개체로서 검출할 수 있다. 이때, 데이터 베이스(118)에 저장된 동물 개체의 외형은 적어도 하나 이상의 동물 개체의 외형일 수 있으며, 데이터 처리부(112)는 상술한 바와 같이 매칭되는 외곽선을 가진 개체를 동물 개체로서 검출함과 동시에 해당 동물 개체의 종류도 판단할 수 있다. For example, the data processing unit 112 detects the outline of an object from image data, compares the detected outline with the outline of the animal object pre-stored in the database 118, and creates an outline that matches the outline of the pre-stored animal object. An entity with an animal can be detected as an animal entity. At this time, the appearance of the animal entity stored in the database 118 may be that of at least one animal entity, and the data processing unit 112 detects the entity with the matching outline as the animal entity as described above and at the same time The type of animal can also be determined.

또한, 예를 들면, 데이터 처리부(112)는 영상 데이터 내의 개체의 특징점을 추출하고, 추출된 특징점이 데이터 베이스(118)에 미리 저장된 동물 개체의 특징점에 임계치 이상의 근접도로 매칭되면, 해당 영상 데이터 내의 개체를 동물 개체로서 검출할 수 있다. 이때, 데이터 처리부(112)는 비교 대상이 되는 두 개체의 영상에서 특징점을 추출하고, 추출된 두 개체의 특징점 기술자(descriptor)를 매칭하는 SIFT(Scale Invariant Feature Transform) 또는SURF(Speeded Up Robust Features) 알고리즘을 사용할 수 있다. In addition, for example, the data processing unit 112 extracts the feature points of an object in the image data, and if the extracted feature point matches the feature point of the animal object previously stored in the database 118 with a proximity of more than a threshold value, the data processing unit 112 extracts the feature point of the object in the image data. The entity can be detected as an animal entity. At this time, the data processing unit 112 extracts feature points from the images of the two objects being compared, and performs SIFT (Scale Invariant Feature Transform) or SURF (Speeded Up Robust Features) matching feature point descriptors of the two extracted objects. Algorithms can be used.

또한, 예를 들면, 데이터 처리부(112)는 영상 데이터에서 개체들의 윤곽을 기초로 동물 개체를 검출할 수 있다. 보다 구체적으로, 데이터 처리부(112)는 영상 데이터에서 개체들의 윤곽을 검출하여 에지 영상을 생성하고, 데이터 베이스(118)에 미리 저장된 사육장의 배경 영상인 전경 영상 데이터로부터 윤곽을 검출하여 배경 에지 영상을 생성하며, 에지 영상에서 배경 에지 영상을 뺀 차 영상(different image) 에서 동물 개체를 검출할 수 있다. 이때, 데이터 처리부(112)는 영상 데이터 프레임의 그래디언트(gradient) 정보를 이용하여 프레임 내에 나타나는 개체의 윤곽을 에지로 검출하여 에지 영상을 생성한다. 여기서, 그래디언트 정보는 프레임에서 소정의 화소들 중 인접하는 화소들 간의 차이값으로부터 생성된 값으로서 차이의 절대값의 합을 의미하고, 에지는 그래디언트 정보를 이용한 개체 간의 경계선을 의미한다.Additionally, for example, the data processing unit 112 may detect animal entities based on the outlines of the entities in the image data. More specifically, the data processing unit 112 detects the outlines of objects in the image data to generate an edge image, and detects the outline from the foreground image data, which is the background image of the breeding farm pre-stored in the database 118, to create a background edge image. Animal objects can be detected in a different image obtained by subtracting the background edge image from the edge image. At this time, the data processing unit 112 generates an edge image by detecting the outline of an object appearing within the frame as an edge using the gradient information of the image data frame. Here, gradient information is a value generated from difference values between adjacent pixels among predetermined pixels in a frame and means the sum of the absolute values of the differences, and edge means a boundary line between objects using gradient information.

또한, 데이터 처리부(112)는 기촬영된 사육장 내 전경의 영상 데이터에서 배경에 해당하는 개체의 에지를 검출하여 배경 에지 영상을 생성할 수 있다. 이때의 배경 에지 영상은 기설정된 영역의 개체들의 윤곽을 배경에지로 검출한 영상일 수 있으나, 기촬영된 사육장(10) 내 전경의 복수개의 영상 데이터 프레임을 비교하여 소정의 횟수이상 반복하여 동일하게 나타나는 개체의 윤곽을 배경에지로 검출한 영상일 수도 있다.Additionally, the data processing unit 112 may generate a background edge image by detecting the edge of an object corresponding to the background from previously photographed image data of the foreground in the breeding farm. At this time, the background edge image may be an image in which the outlines of objects in a preset area are detected as background edges, but the same is repeated a predetermined number of times by comparing a plurality of image data frames of the foreground within the previously photographed breeding farm 10. It may be an image in which the outline of an object that appears is detected as a background edge.

또한, 데이터 처리부(112)는 개체 검출 분류기를 이용하여 영상 데이터에서 동물 개체를 검출할 수 있다. 이때, 개체 검출 분류기는 동물 개체의 자세나 외부 환경을 달리하여 기촬영한 동물 개체의 영상들로부터 훈련 DB 를 구축하여 학습된 것으로서, 이러한 개체 검출 분류기는 SVM(Support Vector Machine), 신경망, AdaBoost 알고리즘 등을 포함하는 다양한 학습 알고리즘을 통해 동물 개체의 DB 를 생성한다. 구체적으로, 데이터 처리부(112)는 기 촬영된 사육장 내 배경의 영상 데이터에서 전경에 해당하는 개체의 에지를 검출하고, 영상 데이터에서 검출된 전경 개체의 에지를 적용하고, 전경 개체의 에지가 적용된 영상 데이터의 영역에 개체 검출 분류기를 적용하여 동물 개체를 검출할 수 있다.Additionally, the data processing unit 112 may detect animal entities in image data using an entity detection classifier. At this time, the object detection classifier is learned by building a training database from images of animal objects taken with different postures or external environments. This object detection classifier uses SVM (Support Vector Machine), neural network, and AdaBoost algorithm. A DB of animal entities is created through various learning algorithms, including: Specifically, the data processing unit 112 detects the edge of an object corresponding to the foreground from the image data of the background in the previously photographed breeding farm, applies the edge of the foreground object detected in the image data, and generates an image to which the edge of the foreground object is applied. Animal entities can be detected by applying an entity detection classifier to the data area.

또한, 데이터 처리부(112)는 이미지 센서(111)에서 촬영한 영상 데이터에서 노이즈를 저감하고, 감마 보정(Gamma Correction), 색필터 배열보간(color filter array interpolation), 색 메트릭스(color matrix), 색보정(color correction), 색 향상(color enhancement) 등의 화질 개선을 위한 영상 신호 처리를 수행할 수 있다. 데이터 처리부(112)는 색채 처리, 블러처리, 에지 강조 처리, 영상 해석 처리, 영상 인식 처리, 영상 이펙트 처리 등도 수행할 수 있다.In addition, the data processing unit 112 reduces noise in image data captured by the image sensor 111, performs gamma correction, color filter array interpolation, color matrix, and color Image signal processing to improve image quality, such as color correction and color enhancement, can be performed. The data processing unit 112 may also perform color processing, blur processing, edge emphasis processing, image analysis processing, image recognition processing, and image effect processing.

데이터 처리부(112)는 검출된 개체 데이터를 이용하여 개체의 헤드부와 바디부를 판별하여 헤드부에 대한 분포 데이터를 생성할 수 있다. The data processing unit 112 may determine the head portion and body portion of the object using the detected entity data and generate distribution data for the head portion.

데이터 처리부(112)는 검출된 개체의 외곽선과 데이터 베이스(118)에 미리 저장된 가금류의 외형을 비교하여 가금류의 헤드부와 바디부를 판별할 수 있다. 데이터 처리부(112)는 헤드부와 바디부를 판별한 후, 헤드부만 검출하여 헤드부에 대한 분포 데이터를 생성할 수 있다.The data processing unit 112 may compare the outline of the detected object with the external appearance of the poultry previously stored in the database 118 to determine the head and body portions of the poultry. The data processing unit 112 may determine the head portion and the body portion and then detect only the head portion to generate distribution data for the head portion.

또는, 데이터 처리부(112)는 추출된 특징점이 데이터 베이스(118)에 미리 저장된 가금류 헤드부의 특징점에 임계치 이상의 근접도로 매칭되면, 해당 영상 데이터 내의 헤드부로 검출할 수 있다.Alternatively, if the extracted feature point matches the feature point of the poultry head part previously stored in the database 118 with a proximity greater than or equal to a threshold, the data processing unit 112 may detect the head part in the corresponding image data.

본 발명의 실시예에서 헤드부에 대한 분포 데이터는 영상 데이터 상에서 바디부를 제외한 헤드부의 위치 정보를 나타내는 데이터를 의미할 수 있다. 본 발명의 실시예에서 헤드부에 대한 분포 데이터는 헤드부에 대한 히트맵(heat map) 및 좌표 정보 중 적어도 하나의 방식으로 표현될 수 있다.In an embodiment of the present invention, the distribution data for the head portion may mean data representing the position information of the head portion excluding the body portion in the image data. In an embodiment of the present invention, distribution data for the head portion may be expressed in at least one of a heat map and coordinate information for the head portion.

도3은 본 발명의 실시예에 따른 히트맵의 개념도이다. 도2 및 도3을 참고하면, 데이터 처리부(112)는 영상 데이터에 존재하는 모든 개체를 검출하고, 각 개체의 헤드부와 바디부를 판별한다. 데이터 처리부(112)는 검출 결과를 이용하여 헤드부만 포함된 히트맵을 생성한다. 도3에서 좌측은 영상 데이터이고 우측은 영상 데이터를 이용하여 표현된 헤드부의 히트맵을 의미한다. 데이터 처리부(112)는 영상 데이터에서 바디부를 제외한 헤드부를 이용하여 우측의 히트맵을 생성한다.Figure 3 is a conceptual diagram of a heat map according to an embodiment of the present invention. Referring to Figures 2 and 3, the data processing unit 112 detects all objects present in the image data and determines the head and body of each object. The data processing unit 112 uses the detection result to generate a heat map including only the head portion. In Figure 3, the left side represents image data, and the right side represents a heat map of the head expressed using image data. The data processing unit 112 generates a heat map on the right using the head portion of the image data excluding the body portion.

히트맵은 헤드부에 해응되는 픽셀의 집합, 또는 픽셀을 포함하는 블록, 블록 집합 등으로 표시될 수 있다. 각 픽셀, 블록 등은 헤드부의 존재 여부를 지시하는 0/1로 표시될 수 있고, 또는 적어도 3레벨 이상의 값으로 존재 확률에 따라 다른 값을 포함할 수 있다. The heat map may be displayed as a set of pixels corresponding to the head portion, a block containing pixels, a set of blocks, etc. Each pixel, block, etc. may be displayed as 0/1 indicating the presence or absence of a head, or may contain values of at least 3 levels or more depending on the probability of existence.

도 3의 오른쪽은, 예를들어, 헤드부에 해당하는 픽셀의 값이 1인 경우 0인 픽셀과 다른 색으로 표시한 경우를 의미할 수 있다.The right side of FIG. 3 may mean, for example, that when the value of the pixel corresponding to the head is 1, it is displayed in a different color than the pixel whose value is 0.

도4는 본 발명의 실시예에 따른 좌표정보의 개념도이다. 도2 및 도4를 참고하면, 데이터 처리부(112)는 영상 데이터에 존재하는 모든 개체를 검출하고, 각 개체의 헤드부와 바디부를 판별한다. 데이터 처리부(112)는 검출 결과를 이용하여 헤드부의 2차원 좌표와 헤드부를 포함하는 영역의 width, height 정보가 포함된 좌표정보를 생성한다.Figure 4 is a conceptual diagram of coordinate information according to an embodiment of the present invention. Referring to Figures 2 and 4, the data processing unit 112 detects all objects present in the image data and determines the head and body of each object. The data processing unit 112 uses the detection result to generate coordinate information including two-dimensional coordinates of the head portion and width and height information of the area including the head portion.

데이터 처리부(112)는 분포 데이터를 이용하여 영상 데이터 상에서 헤드부에 대응되는 위치의 색상을 검출하여 헤드부에 대한 색상 데이터를 생성할 수 있다. 데이터 처리부(112)는 헤드부의 분포 데이터를 이용하여 원본 영상 데이터상에서 헤드부의 위치에 대응되는 픽셀을 분석하여 헤드부를 구성하는 각 픽셀의 색상을 검출할 수 있다. 예를 들면 색상 데이터는 헤드부를 구성하는 각 픽셀에 대한 RGB색상 채널을 의미할 수 있다.The data processing unit 112 may generate color data for the head portion by detecting the color of a position corresponding to the head portion in the image data using distribution data. The data processing unit 112 may detect the color of each pixel constituting the head portion by analyzing the pixel corresponding to the position of the head portion in the original image data using the distribution data of the head portion. For example, color data may refer to the RGB color channel for each pixel constituting the head unit.

도5는 본 발명의 실시예에 따른 색상 데이터의 개념도이다. 도2 및 도5를 참고하면, 데이터 처리부(112)는 헤드부를 구성하는 각 픽셀별로 RGB색상 채널을 산출하여 헤드부에 대한 색상 데이터를 생성한다. 본 발명의 실시예에서 색상 데이터는 픽셀별 RGB색상 채널 정보를 의미할 수 있다.Figure 5 is a conceptual diagram of color data according to an embodiment of the present invention. Referring to Figures 2 and 5, the data processing unit 112 generates color data for the head part by calculating an RGB color channel for each pixel constituting the head part. In an embodiment of the present invention, color data may mean RGB color channel information for each pixel.

또는 데이터 처리부(112)는 영상 데이터를 복수개의 구역으로 구획하고, 헤드부에 대한 구역별 색상 데이터를 생성할 수 있다. 예를 들면, 구역별 색상 데이터는 영상 데이터 상에서 특정 구역내에 존재하는 헤드부 색상의 평균값 또는 합계를 의미할 수 있다. 사육장 내에는 적게는 수백마리 많게는 수만마리의 가금류가 분포되어 있다. 따라서, 사육장을 촬영한 영상 데이터를 복수개의 구역으로 구획하여 구역별 색상 데이터를 생성할 경우 구역별로 질병에 걸린 가금류가 위치할 확률을 예상할 수 있다. Alternatively, the data processing unit 112 may divide the image data into a plurality of zones and generate color data for each zone for the head portion. For example, color data for each region may mean the average value or sum of head colors that exist within a specific region in the image data. There are hundreds or even tens of thousands of poultry distributed within the farm. Therefore, when image data taken from a breeding farm is divided into a plurality of zones and color data for each zone is generated, the probability of diseased poultry being located in each zone can be predicted.

도6은 본 발명의 실시예에 따른 구역별 색상 데이터의 개념도이다. 도2 및 도6을 참고하면, 데이터 처리부(112)는 구역별로 존재하는 헤드부 각각에 대한 RGB색상 채널을 산출하고, 산출된 RGB색상 채널을 구역별로 평균화하여 구역별 색상 데이터를 산출한다. 또는 데이터 처리부(112)는 구역별로 존재하는 헤드부 각각에 대한 RGB색상 채널을 산출하고, 산출된 RGB색상 채널을 구역별로 합산하여 구역별 색상 데이터를 산출한다. 본 발명의 실시예에서 구역별 색상 데이터는 구역별로 평균화한 RGB색상 채널 정보를 의미할 수 있다.Figure 6 is a conceptual diagram of color data for each zone according to an embodiment of the present invention. Referring to Figures 2 and 6, the data processing unit 112 calculates an RGB color channel for each head part existing in each zone, averages the calculated RGB color channels for each zone, and calculates color data for each zone. Alternatively, the data processing unit 112 calculates an RGB color channel for each head unit existing in each zone, and adds the calculated RGB color channels for each zone to calculate color data for each zone. In an embodiment of the present invention, color data for each region may mean RGB color channel information averaged for each region.

제어부(113)는 색상 데이터 및 구역별 색상 데이터 중 적어도 하나를 이용하여 가금류의 건강 상태를 판단할 수 있다.The control unit 113 may determine the health status of poultry using at least one of color data and color data for each zone.

제어부(113)는 색상 데이터를 기 설정된 임계범위와 비교하여 가금류의 건강 상태를 판단할 수 있다. 도7은 본 발명의 실시예에 따른 색상 데이터를 이용한 가금류 건강 상태 판단을 설명하기 위한 도면이다. 도2 및 도7을 참고하면, 제어부(113)는 픽셀별 RGB색상 채널을 기 설정된 임계범위와 비교하여 임계범위에 포함되는 픽셀을 검출한다. 이 때, 임계범위는 RGB색상 채널에서 청색 내지 녹색 계열의 색상을 포함하는 색상 채널의 집단일 수 있다. 제어부는 임계범위에 포함되는 픽셀을 발견한 경우 해당 개체를 이상 개체로 판단할 수 있다The control unit 113 may determine the health status of the poultry by comparing the color data with a preset critical range. Figure 7 is a diagram for explaining poultry health status determination using color data according to an embodiment of the present invention. Referring to Figures 2 and 7, the control unit 113 compares the RGB color channel for each pixel with a preset threshold range and detects pixels included in the threshold range. At this time, the critical range may be a group of color channels including blue to green colors in the RGB color channel. If the control unit finds a pixel that falls within the threshold range, it can determine the object to be an abnormal object.

또는 제어부(113)는 구역별 색상 데이터를 이용하여 가금류의 건강 상태를 판단할 수 있다. 도8은 본 발명의 실시예에 따른 구역별 색상 데이터 판단 이용한 가금류 건강 상태 판단을 설명하기 위한 도면이다. 도2 및 도8을 참고하면, 먼저 제어부(113)는 영상 데이터를 복수개의 구역으로 구획한다. 이 때, 복수개의 구역을 동일한 크기일 수 있으나 이에 한정되지는 않는다. 제어부(113)는 각 헤드부의 RGB색상 채널을 검출하고, 구역별로 존재하는 헤드부의 RGB색상 채널들을 평균화하거나 합산한다. 각각의 RGB색상 채널은 [Red(0~255), Green(0~255), Blue(0~255)]로 표현되는 매트릭스로 구성될 수 있으며, RGB채널들의 평균화 및 합산은 매트릭스의 사칙연산을 통하여 수행될 수 있다. 즉, 3 X 1 매트릭스 (Red, Green, Blue)로 표현되는 RGB색상 채널의 행렬 연산을 통하여 RGB채널들의 평균화 및 합산이 수행될 수 있다. 가금류의 헤드부를 구성하는 픽셀은 벼슬 부분과 얼굴 부분을 포함하기 때문에, RGB채널의 평균값 또는 합산값에는 얼굴 부분을 구성하는 픽셀의 색상을 필터링하기 위한 필터 처리가 이루어져야 한다. 일반적으로 닭 벼슬은 적색 계열을 나타내며, 질병에 걸린 닭의 벼슬은 청색 내지 녹색 계열을 나타낸다. 따라서, 데이터 처리부(112)는 적색, 청색, 녹색 계열의 RGB채널을 제외한 나머지 RGB채널은 필터링함으로써 가금류의 건강 상태를 판단하기 위한 벼슬 부분을 제외한 나머지 정보를 노이즈로 제거할 수 있다. 즉, 데이터 처리부(112)는 헤드부에서 벼슬을 제외한 나머지 영역을 구성하는 픽셀은 노이즈 처리하여 벼슬 부분을 구성하는 픽셀만을 이용하여 RGB채널의 평균값 또는 합산값을 산출할 수 있다. 제어부(113)는 산출된 RGB채널의 평균값 또는 합산값을 기 설정된 임계범위와 비교하여 구역별로 가금류의 건강 상태를 판단한다. Alternatively, the control unit 113 may determine the health status of poultry using color data for each zone. Figure 8 is a diagram illustrating the determination of poultry health status using color data determination for each zone according to an embodiment of the present invention. Referring to Figures 2 and 8, the control unit 113 first divides the image data into a plurality of zones. At this time, the plurality of zones may have the same size, but are not limited thereto. The control unit 113 detects the RGB color channels of each head unit and averages or adds up the RGB color channels of the head unit for each zone. Each RGB color channel can be composed of a matrix expressed as [Red (0~255), Green (0~255), Blue (0~255)], and averaging and summing of the RGB channels uses the four arithmetic operations of the matrix. It can be performed through. That is, averaging and summing of the RGB channels can be performed through matrix operations on the RGB color channels expressed as a 3 x 1 matrix (Red, Green, Blue). Since the pixels that make up the head of a poultry include the comb and face, the average or summed value of the RGB channels must be filtered to filter out the color of the pixels that make up the face. Generally, chicken combs are red, and the combs of diseased chickens are blue to green. Accordingly, the data processing unit 112 filters the remaining RGB channels except for the red, blue, and green RGB channels, thereby removing the remaining information, excluding the comb portion for determining the health status of the poultry, as noise. That is, the data processing unit 112 can noise-process the pixels constituting the remaining area of the head area excluding the comb and calculate the average or summed value of the RGB channels using only the pixels constituting the crest. The control unit 113 determines the health status of poultry for each zone by comparing the calculated average or sum value of the RGB channels with a preset threshold range.

또는, 제어부(113)는 구역별 색상 데이터 및 색상 데이터를 이용하여 가금류의 건강 상태를 판단할 수 있다. 제어부(113)는 1차적으로 구역별 색상 데이터를 이용하여 특정 구역의 RGB채널의 평균값 또는 합산값을 기 설정된 제1 임계범위에 포함되는지 여부를 판단한다. 제1 임계범위는 구역별 색상 데이터(RGB 색상 채널)에 대한 이상 징후 여부를 판단하기 위한 RGB 색상채널 값들을 포함하는 리스트이다. 제어부(113)는 기 설정된 임계범위에 포함되는 특정 구역에 대하여 2차적으로 해당 구역에 존재하는 헤드부에 대한 색상 데이터를 산출하여 픽셀별로 제2 임계범위에 포함되는지 여부를 판단하여 가금류의 건강 상태를 판단할 수 있다. 제2 임계범위는 하나의 픽셀에 대응하는 색상 데이터(RGB 색상 채널)에 대한 이상 징후 여부를 판단하기 위한 RGB 색상채널 값들을 포함하는 리스트이다.Alternatively, the control unit 113 may determine the health status of the poultry using color data and color data for each zone. The control unit 113 primarily uses color data for each zone to determine whether the average or sum of RGB channels in a specific zone is within a preset first threshold range. The first critical range is a list containing RGB color channel values for determining whether there is an abnormality in color data (RGB color channel) for each zone. For a specific area included in a preset critical range, the control unit 113 secondarily calculates color data for the head portion present in the area, determines whether each pixel is included in the second critical range, and determines the health status of the poultry. can be judged. The second threshold range is a list containing RGB color channel values for determining whether there is an abnormality in the color data (RGB color channel) corresponding to one pixel.

또한, 제어부(113)는 촬상 장치(100)의 동작을 위한 각종 명령을 수행할 수 있다. Additionally, the control unit 113 may execute various commands for operating the imaging device 100.

통신부(114)는 타 촬상 장치, 데이터 수집장치(150) 또는 관리 서버(200)와 데이터 통신을 수행할 수 있다. 예를 들면, 통신부(114)는 무선랜(Wireless LAN: WLAN), 와이 파이(Wi-Fi), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등의 원거리 통신 기술을 사용하여 데이터 통신을 수행할 수 있다.The communication unit 114 may perform data communication with another imaging device, the data collection device 150, or the management server 200. For example, the communication unit 114 supports wireless LAN (Wireless LAN), Wi-Fi, Wibro (Wireless Broadband), World Interoperability for Microwave Access (Wimax), and High Speed Downlink (HSDPA). Data communication can be performed using long-distance communication technologies such as Packet Access, IEEE 802.16, Long Term Evolution (LTE), and Wireless Mobile Broadband Service (WMBS).

또는 통신부(114)는 블루투스, RFID(RadioFrequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비, 인접 자장 통신(NFC) 등이 포함될 수 있다. 또한, 유선 통신 기술로는, USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등의 근거리 통신 기술을 사용하여 데이터 통신을 수행할 수 있다.Alternatively, the communication unit 114 may include Bluetooth, RadioFrequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), etc. Additionally, as a wired communication technology, data communication can be performed using short-distance communication technologies such as USB communication, Ethernet, serial communication, and optical/coaxial cables.

예를 들면, 통신부(114)는 근거리 통신 기술을 사용하여 타 촬상 장치 또는 데이터 수집장치(150)와 데이터 통신을 수행하고, 원거리 통신 기술을 사용하여 관리 서버(200)와 데이터 통신을 수행할 수 있다, 그러나 이에 한정되는 것은 아니고, 사육장(10)의 제반 사항 등을 고려하여 다양한 통신 기술이 사용될 수 있다.For example, the communication unit 114 may perform data communication with another imaging device or data collection device 150 using short-distance communication technology, and may perform data communication with the management server 200 using long-distance communication technology. However, the communication technology is not limited to this, and various communication technologies may be used in consideration of all matters of the breeding farm 10.

통신부(114)는 영상 데이터 및 분포 데이터를 데이터 수집장치(150) 또는 관리 서버(200)에 전송할 수 있다.The communication unit 114 may transmit image data and distribution data to the data collection device 150 or the management server 200.

또는 통신부(114)는 색상 데이터 및 구역별 색상 데이터 중 적어도 하나를 데이터 수집장치(150) 또는 원격의 관리 서버(200)로 전송할 수 있다.Alternatively, the communication unit 114 may transmit at least one of color data and color data for each zone to the data collection device 150 or the remote management server 200.

관리 서버(200)는 복수개의 촬상 장치(100)로부터 영상 데이터를 수집하여 가금류의 건강 상태를 분석한다. 이 때, 관리 서버(200)에서 다수의 영상 데이터로부터 헤드부를 검출하고 색상 데이터를 분석할 경우 데이터 처리량이 기하 급수적으로 증가하여 처리 속도가 크게 저하될 수 있다. 따라서, 본 발명의 실시예에서는 촬상 장치 각각에서 헤드부를 검출하는 작업 또는 색상 데이터를 분석하는 작업을 수행하여 관리 서버로 전송함으로써 관리 서버의 부하를 감소시킬 수 있다. The management server 200 collects image data from a plurality of imaging devices 100 and analyzes the health status of poultry. At this time, when the management server 200 detects the head portion from a plurality of image data and analyzes the color data, the data throughput increases exponentially, which may significantly reduce the processing speed. Therefore, in an embodiment of the present invention, the load on the management server can be reduced by performing the task of detecting the head or analyzing color data in each imaging device and transmitting the task to the management server.

본 발명의 실시예에서 가금류의 건강 상태 분석은 촬상 장치(100) 및 관리 서버(200) 중 적어도 하나에서 수행될 수 있다. 즉, 촬상 장치(100)에서는 영상 데이터를 생성하여 관리 서버(200)에 전송하고, 관리 서버(200)에서 분포 데이터 생성, 색상 데이터 검출 및 가금류 건강 상태 분석을 수행할 수 있다. 이 방식에 의하면, 촬상 장치(100)는 영상 데이터를 분석하기 위한 별도의 프로세스가 필요없게 되며, 관리 서버(200)에서 복수개의 촬상 장치로부터 수집된 영상 데이터를 분석하여 가금류 건강 상태를 분석하게 된다.In an embodiment of the present invention, analysis of the health status of poultry may be performed in at least one of the imaging device 100 and the management server 200. That is, the imaging device 100 can generate image data and transmit it to the management server 200, and the management server 200 can generate distribution data, detect color data, and analyze poultry health status. According to this method, the imaging device 100 does not need a separate process for analyzing image data, and the management server 200 analyzes the health status of poultry by analyzing image data collected from a plurality of imaging devices. .

또는 촬상 장치(100)에서 영상 데이터를 생성하고 헤드부에 대한 분포 데이터를 생성하여 관리 서버(200)에 전송하면, 관리 서버(200)에서 색상 데이터를 검출하여 가금류 건강 상태 분석을 수행할 수 있다. 이 방식에 의하면, 헤드부의 분포 데이터를 생성하기 위한 과정을 촬상 장치(100)에서 수행하게 되므로 관리 서버(200)의 데이터 처리량이 감소할 수 있다. 또한, 촬상 장치(100)에서 관리 서버(200)로 영상 데이터를 전송하는 과정에서 압축에 의한 데이터 손실이 발생할 수 있는데, 촬상 장치에서 분포 데이터를 생성할 경우 무손실 영상 데이터를 이용하여 헤드부를 검출하고 이에 대한 분포 데이터를 생성하기 때문에, 관리 서버(200)에서 압축으로 인하여 손실이 발생한 영상 데이터를 이용하여 분포 데이터를 생성하는 경우보다 정확도가 향상될 수 있다.Alternatively, if the imaging device 100 generates image data and distribution data for the head is transmitted to the management server 200, the management server 200 can detect color data and perform poultry health status analysis. . According to this method, the data processing amount of the management server 200 can be reduced because the imaging device 100 performs the process for generating distribution data of the head portion. Additionally, data loss may occur due to compression in the process of transmitting image data from the imaging device 100 to the management server 200. When generating distribution data in the imaging device, the head portion is detected using lossless image data, and Since distribution data is generated for this, accuracy can be improved compared to the case where the management server 200 generates distribution data using image data that has lost due to compression.

또는 촬상 장치(100)에서 영상 데이터 생성, 분포 데이터 생성 및 색상 데이터 검출을 수행하여 관리 서버(200)에 전송하면, 관리 서버(200)에서는 색상 데이터를 이용하여 가금류 건강 상태 분석을 수행할 수 있다. 이 방식에 의하면 관리 서버(200)에서는 색상 데이터를 이용하여 가금류 건강 상태 분석만을 수행하기 때문에 데이터 연산량이 보다 더 감소될 수 있다.Alternatively, if the imaging device 100 generates image data, generates distribution data, and detects color data and transmits it to the management server 200, the management server 200 can perform poultry health status analysis using the color data. . According to this method, the amount of data calculation can be further reduced because the management server 200 only performs poultry health status analysis using color data.

또는 촬상 장치(100)에서 영상 데이터 생성, 분포 데이터 생성, 색상 데이터 검출 및 가금류 건강 상태 분석을 수행하고, 분석 결과를 관리 서버(200)에 전송할 수 있다. 이 방식에 의하면 촬상 장치(100)에서 가금류 분석을 위한 모든 프로세스를 수행하기 때문에 관리 서버(200)는 복수개의 촬상 장치(200)로부터 가금류 분석 결과를 수집하여 관리하는 기능만을 수행할 수 있다. Alternatively, the imaging device 100 may generate image data, generate distribution data, detect color data, and analyze poultry health status, and transmit the analysis results to the management server 200. According to this method, because the imaging device 100 performs all processes for poultry analysis, the management server 200 can only perform the function of collecting and managing poultry analysis results from a plurality of imaging devices 200.

통신부(114)를 통하여 전송되는 데이터는 인코딩부(117)를 통하여 인코딩된 압축 데이터일 수 있다.Data transmitted through the communication unit 114 may be compressed data encoded through the encoding unit 117.

표시부(115)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 115 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. ), a 3D display, and an e-ink display.

표시부(115)는 제어부(113)를 통하여 분포 데이터, 색상 데이터 및 색상 데이터 중 적어도 하나를 디스플레이할 수 있다.The display unit 115 may display at least one of distribution data, color data, and color data through the control unit 113.

또한, 표시부(115)는 이미지 센서(111)에서 촬영한 원본 영상 데이터를 화면에 출력할 수 있다. Additionally, the display unit 115 may output original image data captured by the image sensor 111 on the screen.

또한, 표시부(115)는 다양한 사용자 인터페이스 또는 그래픽 사용자 인터페이스를 화면에 출력할 수 있다.Additionally, the display unit 115 can output various user interfaces or graphic user interfaces on the screen.

유저 인터페이스부(116)는 촬상 장치(100)의 동작 제어를 위한 입력 데이터를 발생시킨다. 유저 인터페이스부(116)는 키 패드, 돔 스위치, 터치 패드, 조그 휠, 조그 스위치 등으로 구성될 수 있다. 표시부(115)와 터치패드가 상호 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 표시부(115)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. The user interface unit 116 generates input data for controlling the operation of the imaging device 100. The user interface unit 116 may be composed of a key pad, dome switch, touch pad, jog wheel, jog switch, etc. When the display unit 115 and the touch pad form a layered structure to form a touch screen, the display unit 115 can be used as an input device in addition to an output device.

유저 인터페이스부(116)는 촬상 장치의 동작을 위한 다양한 명령을 입력받을 수 있다.The user interface unit 116 may receive various commands for operating the imaging device.

인코딩부(117)는 이미지 센서(111)에서 촬영한 원본 영상 데이터 또는 데이터 처리부(112), 모션 검출부(113), 제어부(113) 등을 통하여 가공된 가공 영상 데이터를 디지털 신호로 부호화한다. 예를 들면, 인코딩부(117)는 H.264, H.265, MPEG(Moving Picture Experts Group), M-JPEG(Motion Joint Photographic Experts Group) 표준에 따라 영상 데이터를 인코딩할 수 있다.The encoding unit 117 encodes original image data captured by the image sensor 111 or processed image data processed through the data processing unit 112, motion detection unit 113, and control unit 113 into a digital signal. For example, the encoding unit 117 may encode image data according to H.264, H.265, MPEG (Moving Picture Experts Group), and M-JPEG (Motion Joint Photographic Experts Group) standards.

데이터 베이스(118)는, 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 촬상 장치(100)는 인터넷(internet) 상에서 데이터 베이스(118)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 웹 스토리지와 관련되어 동작할 수도 있다.The database 118 is a flash memory type, hard disk type, multimedia card micro type, and card type memory (for example, SD or XD memory, etc.). ), magnetic memory, magnetic disk, optical disk, RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read-Only Memory: ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM ( It may include at least one storage medium among Programmable Read-Only Memory. Additionally, the imaging device 100 may operate web storage that performs a storage function of the database 118 on the Internet, or may operate in relation to web storage.

데이터 베이스(118)는 이미지 센서(111)에서 촬영한 영상 데이터를 저장할 수 있으며, 과거 일정 기간 동안의 영상 데이터를 저장할 수 있다.The database 118 can store image data captured by the image sensor 111 and can store image data for a certain period of time in the past.

또한, 데이터 베이스(118)는 데이터 처리부(112)를 통하여 생성된 분포 데이터, 색상 데이터, 구역별 색상 데이터를 저장할 수 있다.Additionally, the database 118 may store distribution data, color data, and color data for each zone generated through the data processing unit 112.

또한, 데이터 베이스(118)는, 촬상 장치(100)가 동작하는데 필요한 데이터와 프로그램 등을 저장할 수 있다.Additionally, the database 118 may store data and programs necessary for the imaging device 100 to operate.

또한, 데이터 베이스(118)는, 다양한 사용자 인터페이스(User Interface: UI) 또는 그래픽 사용자 인터페이스(Graphic User Interface: GUI)를 저장할 수 있다.Additionally, the database 118 may store various user interfaces (UI) or graphic user interfaces (GUI).

광원부(119)는 제어부(113)의 제어에 따라 지향하는 방향으로 광을 조사할 수 있다. 예를 들면, 광원부(119)는 적어도 하나의 레이저 다이오드(LD), 발광 다이오드(LED)를 포함할 수 있다. 광원부는 제어부의 제어에 따라 다양한 파장대의 광을 조사할 수 있다.The light source unit 119 may radiate light in a direction under the control of the control unit 113. For example, the light source unit 119 may include at least one laser diode (LD) or light emitting diode (LED). The light source unit can irradiate light of various wavelengths under the control of the control unit.

예를 들면, 광원부(119)는 야간 촬영을 위하여 적외선 파장대의 광을 조사할 수 있다. 또는, 광원부(119)는 사육장내 가축의 광화학 치료(photochemotherapy)를 위하여 자외선 파장대의 광을 조사할 수 있다.For example, the light source unit 119 may irradiate light in the infrared wavelength range for night photography. Alternatively, the light source unit 119 may irradiate light in the ultraviolet wavelength range for photochemotherapy of livestock in the farm.

도9는 본 발명의 실시예에 따른 가금류 관리 시스템의 동작을 설명하기 위한 개념도이다.Figure 9 is a conceptual diagram for explaining the operation of a poultry management system according to an embodiment of the present invention.

도9를 참고하면, 관리 서버(200)는 복수개의 촬상 장치(100)로부터 영상 데이터 및 분포데이터를 수신하고, 분포 데이터를 이용하여 영상 데이터 상에서 헤드부에 대응되는 위치의 색상을 검출하고, 검출된 색상을 분석하여 가금류의 건강 상태를 판단할 수 있다. 본 발명의 실시예에서 헤드부에 대한 분포 데이터는 영상 데이터 상에서 바디부를 제외한 헤드부의 위치 정보가 포함된 데이터를 의미할 수 있다. 본 발명의 실시예에서 헤드부에 대한 분포 데이터는 상기 헤드부에 대한 히트맵(heat map) 및 좌표 정보 중 적어도 하나의 방식으로 표현될 수 있다.Referring to FIG. 9, the management server 200 receives image data and distribution data from a plurality of imaging devices 100, detects the color of the position corresponding to the head in the image data using the distribution data, and detects By analyzing the color, the health status of poultry can be determined. In an embodiment of the present invention, distribution data for the head portion may mean data containing location information of the head portion excluding the body portion in image data. In an embodiment of the present invention, distribution data for the head portion may be expressed in at least one of a heat map and coordinate information for the head portion.

이에 따르면, 촬상 장치(100)가 헤드부의 위치 정보가 포함된 분포 데이터를 생성하여 관리 서버(200)로 전송함으로써, 헤드부의 위치 검출은 촬상 장치(100)에서 수행하고, 관리 서버(200)는 헤드부의 분포 데이터를 이용하여 가금류의 건강 상태를 분석하는 분산 처리를 통하여 분석의 정확도를 향상시킬 수 있다.According to this, the imaging device 100 generates distribution data containing the location information of the head portion and transmits it to the management server 200, so that the location of the head portion is detected by the imaging device 100 and the management server 200 The accuracy of analysis can be improved through distributed processing that analyzes the health status of poultry using head distribution data.

또는 관리 서버(200)는 복수개의 촬상 장치(100)로부터 색상 데이터 및 구역별 색상 데이터 중 적어도 하나를 수신하여 가금류의 건강 상태를 판단할 수 있다. 이에 따르면, 촬상 장치(100)가 헤드부의 위치 정보가 포함된 분포 데이터를 생성하고, 색상 데이터를 생성하여 관리 서버(200)로 전송함으로써, 관리 서버(200)는 헤드부를 검출하는 과정과 색상을 검출하는 별도의 연산 과정을 생략할 수 있다. 관리 서버(200)는 수신한 색상 데이터를 이용하여 가금류의 건강 상태를 신속하게 분석할 수 있다. 따라서, 관리 서버(200)의 연산량이 크게 감소되며, 복수개의 촬상 장치(100)로부터 다수의 영상 데이터를 수집하여 분석하는 관리 서버의 부하량을 감소시킬 수 있다.Alternatively, the management server 200 may determine the health status of poultry by receiving at least one of color data and color data for each zone from the plurality of imaging devices 100. According to this, the imaging device 100 generates distribution data containing the location information of the head, generates color data, and transmits it to the management server 200, so that the management server 200 performs the process of detecting the head and the color. The separate calculation process for detection can be omitted. The management server 200 can quickly analyze the health status of poultry using the received color data. Accordingly, the amount of computation of the management server 200 is greatly reduced, and the load on the management server that collects and analyzes a large number of image data from the plurality of imaging devices 100 can be reduced.

도10은 본 발명의 실시예에 따른 가금류 관리 방법의 순서도이다. 도10을 참조하면, 먼저 이미지 센서는 복수 개체를 포함하는 이미지를 촬영한다. 이미지 센서는 사육장 내부에 배치되어 가금류를 포함하는 복수 개체를 촬영하여 데이터 처리부에 전달한다(S1001).Figure 10 is a flow chart of a poultry management method according to an embodiment of the present invention. Referring to Figure 10, first, the image sensor captures an image including a plurality of objects. The image sensor is placed inside the breeding farm to capture images of multiple objects, including poultry, and transmit them to the data processing unit (S1001).

다음으로, 이미지 센서는 복수 개체를 포함하는 이미지를 이용하여 영상 데이터를 생성한다. 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 이미지 센서는 순차적으로 촬영되는 이미지를 이용하여 복수개의 영상 데이터를 생성한다(S1002).Next, the image sensor generates image data using an image containing multiple objects. One image data may mean a single frame. The image sensor generates a plurality of image data using sequentially captured images (S1002).

다음으로, 데이터 처리부는 영상 데이터에서 개체를 검출한다. 데이터 처리부는 개체의 특징점, 개체의 외곽선, 개체의 윤곽을 이용하여 개체를 검출한다. 또는, 데이터 처리부는 SVM(Support Vector Machine), 신경망, AdaBoost 알고리즘 등을 포함하는 다양한 학습 알고리즘을 이용하여 영상 데이터에서 개체를 검출한다(S1003).Next, the data processing unit detects objects in the image data. The data processing unit detects the object using the characteristic points of the object, the outline of the object, and the outline of the object. Alternatively, the data processing unit detects objects in image data using various learning algorithms including SVM (Support Vector Machine), neural network, and AdaBoost algorithm (S1003).

다음으로, 데이터 처리부는 검출된 개체 데이터를 이용하여 개체의 헤드부와 바디부를 판별하여 헤드부에 대한 분포 데이터를 생성할 상기 헤드부에 대한 분포 데이터를 생성한다. 분포 데이터는 헤드부에 대한 히트맵(heat map) 및 좌표 정보 중 적어도 하나를 포함한다(S1004).Next, the data processing unit uses the detected object data to determine the head and body of the object and generates distribution data for the head. The distribution data includes at least one of a heat map and coordinate information for the head portion (S1004).

다음으로, 데이터 처리부는 분포 데이터를 이용하여 영상 데이터 상에서 헤드부에 대응되는 위치의 색상을 검출한다. 데이터 처리부는 분포 데이터를 이용하여 영상 데이터 상에서 헤드부에 대응되는 위치의 색상을 검출하여 헤드부에 대한 색상 데이터를 생성한다. 데이터 처리부는 헤드부의 분포 데이터를 이용하여 원본 영상 데이터상에서 헤드부의 위치에 대응되는 픽셀을 분석하여 헤드부를 구성하는 각 픽셀의 색상을 검출한다. 예를 들면 색상 데이터는 헤드부를 구성하는 각 픽셀에 대한 RGB색상 채널을 의미한다. 또는 데이터 처리부는 영상 데이터를 복수개의 구역으로 구획하고, 헤드부에 대한 구역별 색상 데이터를 생성한다(S1005).Next, the data processing unit detects the color of the position corresponding to the head portion in the image data using the distribution data. The data processing unit detects the color of a position corresponding to the head in the image data using distribution data and generates color data for the head. The data processing unit detects the color of each pixel constituting the head portion by analyzing the pixels corresponding to the position of the head portion in the original image data using the distribution data of the head portion. For example, color data refers to the RGB color channel for each pixel that makes up the head part. Alternatively, the data processing unit divides the image data into a plurality of zones and generates color data for each zone for the head portion (S1005).

다음으로, 제어부는 검출된 색상을 분석하여 가금류의 건강 상태를 판단한다. 제어부는 색상 데이터 또는 구역별 색상 데이터를 이용하여 가금류의 건강 상태를 판단한다. 이 때, 제어부는 색상 데이터를 기 설정된 임계범위와 비교하여 가금류의 건강 상태를 판단한다(S1006).Next, the control unit analyzes the detected color to determine the health status of the poultry. The control unit determines the health status of poultry using color data or color data by zone. At this time, the control unit determines the health status of the poultry by comparing the color data with a preset critical range (S1006).

도11은 본 발명의 실시예에 따른 가금류 관리 방법의 순서도이다. 도11을 참조하면, 먼저 이미지 센서는 복수 개체를 포함하는 이미지를 촬영한다. 이미지 센서(S1101).Figure 11 is a flowchart of a poultry management method according to an embodiment of the present invention. Referring to Figure 11, first, the image sensor captures an image including a plurality of objects. Image sensor (S1101).

다음으로, 촬영부는 복수 개체를 포함하는 이미지를 이용하여 영상 데이터를 생성한다. 하나의 영상 데이터는 단일 프레임을 의미할 수 있다.이미지 센서는 순차적으로 촬영되는 이미지를 이용하여 복수개의 영상 데이터를 생성한다(S1102).Next, the photographing unit generates image data using an image containing a plurality of objects. One image data may mean a single frame. An image sensor generates a plurality of image data using sequentially captured images (S1102).

다음으로, 데이터 처리부는 영상 데이터에서 개체를 검출한다. 데이터 처리부는 개체의 특징점, 개체의 외곽선, 개체의 윤곽을 이용하여 개체를 검출한다. 또는, 데이터 처리부는 SVM(Support Vector Machine), 신경망, AdaBoost 알고리즘 등을 포함하는 다양한 학습 알고리즘을 이용하여 영상 데이터에서 개체를 검출한다(S1103).Next, the data processing unit detects objects in the image data. The data processing unit detects the object using the characteristic points of the object, the outline of the object, and the outline of the object. Alternatively, the data processing unit detects objects in image data using various learning algorithms including SVM (Support Vector Machine), neural network, AdaBoost algorithm, etc. (S1103).

다음으로, 데이터 처리부는 검출된 개체 데이터를 이용하여 개체의 헤드부와 바디부를 판별하여 헤드부에 대한 분포 데이터를 생성할 상기 헤드부에 대한 분포 데이터를 생성한다. 분포 데이터는 헤드부에 대한 히트맵(heat map) 및 좌표 정보 중 적어도 하나를 포함한다(S1104).Next, the data processing unit uses the detected object data to determine the head and body of the object and generates distribution data for the head. The distribution data includes at least one of a heat map and coordinate information for the head portion (S1104).

다음으로, 통신부는 영상 데이터 및 분포 데이터를 관리 서버에 전송한다(S1105).Next, the communication unit transmits the image data and distribution data to the management server (S1105).

다음으로, 관리 서버는 분포 데이터를 이용하여 영상 데이터 상에서 헤드부에 대응되는 위치의 색상을 검출한다. 관리 서버는 분포 데이터를 이용하여 영상 데이터 상에서 헤드부에 대응되는 위치의 색상을 검출하여 헤드부에 대한 색상 데이터를 생성한다. 관리 서버는 헤드부의 분포 데이터를 이용하여 원본 영상 데이터상에서 헤드부의 위치에 대응되는 픽셀을 분석하여 헤드부를 구성하는 각 픽셀의 색상을 검출한다. 예를 들면 색상 데이터는 헤드부를 구성하는 각 픽셀에 대한 RGB색상 채널을 의미한다. 또는 관리 서버는 영상 데이터를 복수개의 구역으로 구획하고, 헤드부에 대한 구역별 색상 데이터를 생성한다(S1106).Next, the management server detects the color of the position corresponding to the head in the image data using the distribution data. The management server detects the color of a position corresponding to the head in the image data using distribution data and generates color data for the head. The management server detects the color of each pixel constituting the head portion by analyzing the pixel corresponding to the position of the head portion in the original image data using the head portion distribution data. For example, color data refers to the RGB color channel for each pixel that makes up the head part. Alternatively, the management server divides the image data into a plurality of zones and generates color data for each zone for the head portion (S1106).

다음으로, 관리 서버는 검출된 색상을 분석하여 가금류의 건강 상태를 판단한다. 관리 서버는 색상 데이터 또는 구역별 색상 데이터를 이용하여 가금류의 건강 상태를 판단한다. 이 때, 관리 서버는 색상 데이터를 기 설정된 임계범위와 비교하여 가금류의 건강 상태를 판단한다(S1107).Next, the management server analyzes the detected color to determine the health status of the poultry. The management server determines the health status of poultry using color data or color data by zone. At this time, the management server determines the health status of the poultry by comparing the color data with a preset critical range (S1107).

도12는 본 발명의 실시예에 따른 가금류 관리 방법의 순서도이다. 도12를 참조하면, 먼저 이미지 센서는 복수 개체를 포함하는 이미지를 촬영한다. 이미지 센서(S1201).Figure 12 is a flowchart of a poultry management method according to an embodiment of the present invention. Referring to Figure 12, first, the image sensor captures an image including a plurality of objects. Image sensor (S1201).

다음으로, 이미지 센서는 복수 개체를 포함하는 이미지를 이용하여 영상 데이터를 생성한다. 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 이미지 센서는 순차적으로 촬영되는 이미지를 이용하여 복수개의 영상 데이터를 생성한다(S1202).Next, the image sensor generates image data using an image containing multiple objects. One image data may mean a single frame. The image sensor generates a plurality of image data using sequentially captured images (S1202).

다음으로, 데이터 처리부는 영상 데이터에서 개체를 검출한다. 데이터 처리부는 개체의 특징점, 개체의 외곽선, 개체의 윤곽을 이용하여 개체를 검출한다. 또는, 데이터 처리부는 SVM(Support Vector Machine), 신경망, AdaBoost 알고리즘 등을 포함하는 다양한 학습 알고리즘을 이용하여 영상 데이터에서 개체를 검출한다(S1203).Next, the data processing unit detects objects in the image data. The data processing unit detects the object using the characteristic points of the object, the outline of the object, and the outline of the object. Alternatively, the data processing unit detects objects in image data using various learning algorithms including SVM (Support Vector Machine), neural network, AdaBoost algorithm, etc. (S1203).

다음으로, 데이터 처리부는 검출된 개체 데이터를 이용하여 개체의 헤드부와 바디부를 판별하여 헤드부에 대한 분포 데이터를 생성할 상기 헤드부에 대한 분포 데이터를 생성한다. 분포 데이터는 헤드부에 대한 히트맵(heat map) 및 좌표 정보 중 적어도 하나를 포함한다(S1204).Next, the data processing unit uses the detected object data to determine the head and body of the object and generates distribution data for the head. The distribution data includes at least one of a heat map and coordinate information for the head portion (S1204).

다음으로, 데이터 처리부는 분포 데이터를 이용하여 영상 데이터 상에서 헤드부에 대응되는 위치의 색상을 검출한다. 데이터 처리부는 분포 데이터를 이용하여 영상 데이터 상에서 헤드부에 대응되는 위치의 색상을 검출하여 헤드부에 대한 색상 데이터를 생성한다. 데이터 처리부는 헤드부의 분포 데이터를 이용하여 원본 영상 데이터상에서 헤드부의 위치에 대응되는 픽셀을 분석하여 헤드부를 구성하는 각 픽셀의 색상을 검출한다. 예를 들면 색상 데이터는 헤드부를 구성하는 각 픽셀에 대한 RGB색상 채널을 의미한다. 또는 데이터 처리부는 영상 데이터를 복수개의 구역으로 구획하고, 헤드부에 대한 구역별 색상 데이터를 생성한다(S1205).Next, the data processing unit detects the color of the position corresponding to the head portion in the image data using the distribution data. The data processing unit detects the color of a position corresponding to the head in the image data using distribution data and generates color data for the head. The data processing unit detects the color of each pixel constituting the head portion by analyzing the pixels corresponding to the position of the head portion in the original image data using the distribution data of the head portion. For example, color data refers to the RGB color channel for each pixel that makes up the head part. Alternatively, the data processing unit divides the image data into a plurality of zones and generates color data for each zone for the head portion (S1205).

다음으로, 통신부는 색상 데이터 및 구역별 색상 데이터 중 적어도 하나를 관리 서버로 전송한다(S1206).Next, the communication unit transmits at least one of color data and color data for each zone to the management server (S1206).

다음으로, 관리 서버는 검출된 색상을 분석하여 가금류의 건강 상태를 판단한다. 관리 서버는 색상 데이터 또는 구역별 색상 데이터를 이용하여 가금류의 건강 상태를 판단한다. 이 때, 관리 서버는 색상 데이터를 기 설정된 임계범위와 비교하여 가금류의 건강 상태를 판단한다(S1207).Next, the management server analyzes the detected color to determine the health status of the poultry. The management server determines the health status of poultry using color data or color data by zone. At this time, the management server determines the health status of the poultry by comparing the color data with a preset critical range (S1207).

도13은 본 발명의 실시예에 따른 가금류 관리 방법의 순서도이다. 도13을 참조하면, 먼저 이미지 센서는 복수 개체를 포함하는 이미지를 촬영한다(S1301).Figure 13 is a flowchart of a poultry management method according to an embodiment of the present invention. Referring to Figure 13, first, the image sensor captures an image including a plurality of objects (S1301).

다음으로, 이미지 센서는 복수 개체를 포함하는 이미지를 이용하여 영상 데이터를 생성한다. 하나의 영상 데이터는 단일 프레임을 의미할 수 있다. 이미지 센서는 순차적으로 촬영되는 이미지를 이용하여 복수개의 영상 데이터를 생성한다(S1302).Next, the image sensor generates image data using an image containing multiple objects. One image data may mean a single frame. The image sensor generates a plurality of image data using sequentially captured images (S1302).

다음으로, 통신부는 영상 데이터를 관리 서버에 전송한다(S1303).Next, the communication unit transmits the video data to the management server (S1303).

다음으로, 관리 서버는 영상 데이터에서 개체를 검출한다. 관리 서버는 개체의 특징점, 개체의 외곽선, 개체의 윤곽을 이용하여 개체를 검출한다. 또는, 데이터 처리부는 SVM(Support Vector Machine), 신경망, AdaBoost 알고리즘 등을 포함하는 다양한 학습 알고리즘을 이용하여 영상 데이터에서 개체를 검출한다(S1304).Next, the management server detects objects in the video data. The management server detects the object using the characteristic points of the object, the outline of the object, and the outline of the object. Alternatively, the data processing unit detects objects in image data using various learning algorithms including SVM (Support Vector Machine), neural network, and AdaBoost algorithm (S1304).

다음으로, 관리 서버는 검출된 개체 데이터를 이용하여 개체의 헤드부와 바디부를 판별하여 헤드부에 대한 분포 데이터를 생성할 상기 헤드부에 대한 분포 데이터를 생성한다. 분포 데이터는 헤드부에 대한 히트맵(heat map) 및 좌표 정보 중 적어도 하나를 포함한다(S1305).Next, the management server uses the detected entity data to determine the head and body of the entity and generates distribution data for the head. The distribution data includes at least one of a heat map and coordinate information for the head portion (S1305).

다음으로, 관리 서버는 분포 데이터를 이용하여 영상 데이터 상에서 헤드부에 대응되는 위치의 색상을 검출한다. 관리 서버는 분포 데이터를 이용하여 영상 데이터 상에서 헤드부에 대응되는 위치의 색상을 검출하여 헤드부에 대한 색상 데이터를 생성한다. 관리 서버는 헤드부의 분포 데이터를 이용하여 원본 영상 데이터상에서 헤드부의 위치에 대응되는 픽셀을 분석하여 헤드부를 구성하는 각 픽셀의 색상을 검출한다. 예를 들면 색상 데이터는 헤드부를 구성하는 각 픽셀에 대한 RGB색상 채널을 의미한다. 또는 관리 서버는 영상 데이터를 복수개의 구역으로 구획하고, 헤드부에 대한 구역별 색상 데이터를 생성한다(S1306).Next, the management server detects the color of the position corresponding to the head in the image data using the distribution data. The management server detects the color of a position corresponding to the head in the image data using distribution data and generates color data for the head. The management server detects the color of each pixel constituting the head portion by analyzing the pixel corresponding to the position of the head portion in the original image data using the head portion distribution data. For example, color data refers to the RGB color channel for each pixel that makes up the head part. Alternatively, the management server divides the image data into a plurality of zones and generates color data for each zone for the head portion (S1306).

다음으로, 관리 서버는 검출된 색상을 분석하여 가금류의 건강 상태를 판단한다. 관리 서버는 색상 데이터 또는 구역별 색상 데이터를 이용하여 가금류의 건강 상태를 판단한다. 이 때, 관리 서버는 색상 데이터를 기 설정된 임계범위와 비교하여 가금류의 건강 상태를 판단한다(S1307).Next, the management server analyzes the detected color to determine the health status of the poultry. The management server determines the health status of poultry using color data or color data by zone. At this time, the management server determines the health status of the poultry by comparing the color data with a preset critical range (S1307).

본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 개체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 채널의 세그먼트들, 드라이버들, 펌웨어, 마이크로채널, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.The term '~unit' used in this embodiment refers to software or hardware components such as FPGA (field-programmable gate array) or ASIC, and the '~unit' performs certain roles. However, '~part' is not limited to software or hardware. The '~ part' may be configured to reside in an addressable storage medium and may be configured to reproduce on one or more processors. Therefore, as an example, '~ part' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program channels, drivers, firmware, microchannels, circuits, data, databases, data structures, tables, arrays, and variables. The functions provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'. In addition, the components and 'parts' may be implemented to regenerate one or more CPUs within the device or secure multimedia card.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the present invention has been described above with reference to preferred embodiments, those skilled in the art may make various modifications and changes to the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that you can do it.

100: 촬상 장치
111: 이미지 센서
112: 데이터 처리부
113: 제어부
114: 통신부
115: 표시부
116: 유저 인터페이스부
117: 인코딩부
118: 데이터베이스
119: 광원부
120: 팬틸트부
100: imaging device
111: image sensor
112: data processing unit
113: control unit
114: Department of Communications
115: display unit
116: User interface unit
117: encoding unit
118: database
119: Light source unit
120: Pan tilt unit

Claims (15)

이미지를 촬영하여 영상 데이터를 생성하는 이미지 센서;
상기 영상 데이터를 이용하여 개체를 검출하고, 상기 개체의 헤드부를 판별하고 상기 헤드부에 대한 분포 데이터를 생성하는 데이터 처리부; 및
상기 영상 데이터 및 상기 분포 데이터를 관리서버로 전송하는 통신부를 포함하며,
상기 데이터 처리부는 상기 영상 데이터를 복수개의 구역으로 구획하고, 상기 분포 데이터를 이용하여 복수개의 구역으로 구획된 상기 영상 데이터 상에서 상기 헤드부에 대응되는 위치의 색상을 검출하며, 복수개의 구역별로 헤드부 색상의 평균값 또는 합계를 산출하여 상기 헤드부에 대한 구역별 색상 데이터를 생성하는 촬상 장치.
An image sensor that captures images and generates image data;
a data processing unit that detects an object using the image data, determines a head portion of the object, and generates distribution data for the head portion; and
It includes a communication unit that transmits the image data and the distribution data to a management server,
The data processing unit divides the image data into a plurality of zones, detects the color of a position corresponding to the head portion on the image data divided into a plurality of zones using the distribution data, and detects the color of the position corresponding to the head portion for each of the plurality of zones. An imaging device that generates regional color data for the head unit by calculating the average or sum of colors.
제1항에 있어서,
상기 분포 데이터는 상기 헤드부에 대한 히트맵(heat map) 및 좌표 정보 중 적어도 하나를 포함하는 촬상 장치.
According to paragraph 1,
The distribution data includes at least one of a heat map and coordinate information for the head portion.
삭제delete 삭제delete 제1항에 있어서,
상기 통신부는 상기 색상 데이터 및 상기 구역별 색상 데이터 중적어도 하나를 상기 관리서버로 전송하는 촬상 장치.
According to paragraph 1,
The communication unit transmits at least one of the color data and the color data for each zone to the management server.
제1항에 있어서,
상기 색상 데이터 및 상기 구역별 색상 데이터 중 적어도 하나를 이용하여 가금류의 건강 상태를 판단하는 제어부를 더 포함하는 촬상 장치.
According to paragraph 1,
An imaging device further comprising a control unit that determines a health state of poultry using at least one of the color data and the color data for each zone.
제6항에 있어서,
상기 제어부는 상기 색상 데이터를 기 설정된 임계범위와 비교하여 상기 가금류의 건강 상태를 판단하는 촬상 장치.
According to clause 6,
The control unit determines the health status of the poultry by comparing the color data with a preset threshold range.
이미지를 촬영하여 영상 데이터를 생성하는 이미지 센서; 상기 영상 데이터를 이용하여 개체를 검출하고, 상기 개체의 헤드부를 판별하여 상기 헤드부에 대한 분포 데이터를 생성하는 데이터 처리부; 및 상기 영상 데이터 및 상기 분포 데이터를 전송하는 통신부를 포함하는 촬상 장치; 및
상기 영상 데이터 및 상기 분포데이터를 수신하고, 상기 분포 데이터를 이용하여 상기 영상 데이터 상에서 상기 헤드부에 대응되는 위치의 색상을 검출하고, 검출된 색상을 분석하여 가금류의 건강 상태를 판단하는 관리 서버
를 포함하며,
상기 데이터 처리부는 상기 영상 데이터를 복수개의 구역으로 구획하고, 상기 분포 데이터를 이용하여 복수개의 구역으로 구획된 상기 영상 데이터 상에서 상기 헤드부에 대응되는 위치의 색상을 검출하며, 복수개의 구역별로 헤드부 색상의 평균값 또는 합계를 산출하여 상기 헤드부에 대한 구역별 색상 데이터를 생성하는 가금류 관리 시스템.
An image sensor that captures images and generates image data; a data processing unit that detects an object using the image data, determines a head portion of the object, and generates distribution data for the head portion; and an imaging device including a communication unit that transmits the image data and the distribution data; and
A management server that receives the image data and the distribution data, detects the color of the position corresponding to the head in the image data using the distribution data, and analyzes the detected color to determine the health status of the poultry.
Includes,
The data processing unit divides the image data into a plurality of zones, detects the color of a position corresponding to the head portion on the image data divided into a plurality of zones using the distribution data, and detects the color of the position corresponding to the head portion for each of the plurality of zones. A poultry management system that generates color data by zone for the head by calculating the average or sum of colors.
제8항에 있어서,
상기 분포 데이터는 상기 헤드부에 대한 히트맵(heat map) 및 좌표 정보 중 적어도 하나를 포함하는 가금류 관리 시스템.
According to clause 8,
The distribution data is a poultry management system including at least one of a heat map and coordinate information for the head portion.
삭제delete 삭제delete 제8항에 있어서,
상기 통신부는 상기 색상 데이터 및 상기 구역별 색상 데이터 중적어도 하나를 상기 관리서버로 전송하는 가금류 관리 시스템.
According to clause 8,
A poultry management system wherein the communication unit transmits at least one of the color data and the color data for each zone to the management server.
제8항에 있어서,
상기 관리 서버는 상기 색상 데이터 및 상기 구역별 색상 데이터 중 적어도 하나를 이용하여 가금류의 건강 상태를 판단하는 가금류 관리 시스템.
According to clause 8,
A poultry management system in which the management server determines the health status of poultry using at least one of the color data and the color data for each zone.
제13항에 있어서,
상기 관리 서버는 상기 색상 데이터를 기 설정된 임계범위와 비교하여 상기 가금류의 건강 상태를 판단하는 가금류 관리 시스템.
According to clause 13,
A poultry management system in which the management server determines the health status of the poultry by comparing the color data with a preset critical range.
이미지를 촬영하여 영상 데이터를 생성하는 단계;
상기 영상 데이터에서 개체를 검출하는 단계;
상기 개체의 헤드부를 판별하는 단계;
상기 헤드부에 대한 분포 데이터를 생성하는 단계;
상기 분포 데이터를 이용하여 상기 영상 데이터 상에서 상기 헤드부에 대응되는 위치의 색상을 검출하는 단계; 및
검출된 색상을 분석하여 가금류의 건강 상태를 판단하는 단계를 포함하며,
상기 분포 데이터를 이용하여 상기 영상 데이터 상에서 상기 헤드부에 대응되는 위치의 색상을 검출하는 단계는,
상기 영상 데이터를 복수개의 구역으로 구획하는 단계, 상기 분포 데이터를 이용하여 복수개의 구역으로 구획된 상기 영상 데이터 상에서 상기 헤드부에 대응되는 위치의 색상을 검출하는 단계 및 복수개의 구역별로 헤드부 색상의 평균값 또는 합계를 산출하여 상기 헤드부에 대한 구역별 색상 데이터를 생성하는 단계를 포함하는 가금류 관리 방법.
Generating image data by taking an image;
detecting an object from the image data;
determining the head portion of the object;
generating distribution data for the head portion;
detecting the color of a position corresponding to the head portion on the image data using the distribution data; and
It includes a step of determining the health status of the poultry by analyzing the detected color,
The step of detecting the color of a position corresponding to the head portion on the image data using the distribution data includes:
Dividing the image data into a plurality of zones, detecting the color of a position corresponding to the head portion on the image data divided into a plurality of zones using the distribution data, and determining the color of the head portion for each of the plurality of zones. A poultry management method comprising generating regional color data for the head portion by calculating an average value or total.
KR1020180017176A 2018-02-12 2018-02-12 Imaging device, apparatus and method for managing of fowl comprising the same KR102609461B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180017176A KR102609461B1 (en) 2018-02-12 2018-02-12 Imaging device, apparatus and method for managing of fowl comprising the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180017176A KR102609461B1 (en) 2018-02-12 2018-02-12 Imaging device, apparatus and method for managing of fowl comprising the same

Publications (2)

Publication Number Publication Date
KR20190103510A KR20190103510A (en) 2019-09-05
KR102609461B1 true KR102609461B1 (en) 2023-12-04

Family

ID=67949654

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180017176A KR102609461B1 (en) 2018-02-12 2018-02-12 Imaging device, apparatus and method for managing of fowl comprising the same

Country Status (1)

Country Link
KR (1) KR102609461B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102172347B1 (en) * 2019-11-11 2020-10-30 (주)이지팜 Method and system for determining health status of farm livestock
CN111160271B (en) * 2019-12-30 2023-08-18 哈尔滨商业大学 Indoor chicken farm disease chicken detecting system based on deep learning
WO2022025354A1 (en) * 2020-07-30 2022-02-03 주식회사 에스티엔 Poultry weight measurement and weight estimation system
KR20230100198A (en) 2021-12-28 2023-07-05 주식회사 유라이크코리아 Wearable device for poultry management and poultry management system using the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012212236A (en) 2011-03-30 2012-11-01 Secom Co Ltd Left person detection device
JP2015069253A (en) 2013-09-27 2015-04-13 株式会社リコー Individual condition determination device, individual condition determination method, and individual condition determination program
KR101623826B1 (en) * 2014-12-10 2016-05-24 주식회사 아이디스 Surveillance camera with heat map

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101607934B1 (en) * 2014-05-14 2016-03-31 숭실대학교산학협력단 The method for monitoring communicable disease and system using the method, recording medium for performing the method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012212236A (en) 2011-03-30 2012-11-01 Secom Co Ltd Left person detection device
JP2015069253A (en) 2013-09-27 2015-04-13 株式会社リコー Individual condition determination device, individual condition determination method, and individual condition determination program
KR101623826B1 (en) * 2014-12-10 2016-05-24 주식회사 아이디스 Surveillance camera with heat map

Also Published As

Publication number Publication date
KR20190103510A (en) 2019-09-05

Similar Documents

Publication Publication Date Title
KR102609461B1 (en) Imaging device, apparatus and method for managing of fowl comprising the same
US11023707B2 (en) System and method for selecting a part of a video image for a face detection operation
US20170213091A1 (en) Video processing
TWI759286B (en) System and method for training object classifier by machine learning
JP2021514548A (en) Target object monitoring methods, devices and systems
US11350610B2 (en) Rearing place management device and method
US10096117B2 (en) Video segmentation method
KR101944374B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR102615986B1 (en) Apparatus and method for determining abnormal object
US11594060B2 (en) Animal information management system and animal information management method
KR20140095333A (en) Method and apparratus of tracing object on image
US20220067377A1 (en) Device for managing environment of breeding farm
CN111666920A (en) Target object wearing detection method and device, storage medium and electronic device
US9256803B2 (en) Automatic detection of persistent changes in naturally varying scenes
KR20200009530A (en) System and method for detecting abnormal object
CN109657571B (en) Delivery monitoring method and device
KR102505691B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR102619829B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR102307609B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR102606062B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR20230123226A (en) Noise Reduction of Surveillance Camera Image Using Object Detection Based on Artificial Intelligence
CN116721141A (en) Adaptive facial depth map generation
KR20190113360A (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR102609804B1 (en) Apparatus and method for detecting abnormal object and imaging device comprising the same
KR102464539B1 (en) User interface device for object monitoring by area

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant