KR101837027B1 - Device and method for tracking object using superpixel based on thermal image - Google Patents

Device and method for tracking object using superpixel based on thermal image Download PDF

Info

Publication number
KR101837027B1
KR101837027B1 KR1020170123367A KR20170123367A KR101837027B1 KR 101837027 B1 KR101837027 B1 KR 101837027B1 KR 1020170123367 A KR1020170123367 A KR 1020170123367A KR 20170123367 A KR20170123367 A KR 20170123367A KR 101837027 B1 KR101837027 B1 KR 101837027B1
Authority
KR
South Korea
Prior art keywords
segment
label
next frame
frame
image
Prior art date
Application number
KR1020170123367A
Other languages
Korean (ko)
Inventor
김원준
이상락
조용범
구지희
Original Assignee
건국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건국대학교 산학협력단 filed Critical 건국대학교 산학협력단
Priority to KR1020170123367A priority Critical patent/KR101837027B1/en
Application granted granted Critical
Publication of KR101837027B1 publication Critical patent/KR101837027B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Agronomy & Crop Science (AREA)
  • Mining & Mineral Resources (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Multimedia (AREA)
  • Animal Husbandry (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are a method and apparatus for tracking an object using a super pixel based on a thermal image. The method for tracking an object using a super pixel based on a thermal image according to an embodiment of the present invention includes the steps of: collecting a thermal image for each frame; dividing the thermal image into a plurality of super pixels in a segment unit; giving a label to identify a segment corresponding to the object among segments of a reference frame; calculating a cost function between the segment of the following frame and the segment corresponding to the object; and giving the label to the segment corresponding to the object of the following frame based on the calculation value of the cost function. Accordingly, the present invention can accurately recognize and monitor the object.

Description

열화상 영상 기반의 슈퍼픽셀을 활용한 객체 추적 장치 및 방법{DEVICE AND METHOD FOR TRACKING OBJECT USING SUPERPIXEL BASED ON THERMAL IMAGE}TECHNICAL FIELD [0001] The present invention relates to an apparatus and method for tracking an object using super-pixels based on thermal imaging,

본원은 열화상 영상 기반의 슈퍼픽셀을 활용한 객체 추적 장치 및 방법에 관한 것이다. 또한, 본원은 열화상 영상을 기반으로 대가축을 포함하는 객체의 모니터링 시스템에 관한 것이다.The present invention relates to an apparatus and method for tracking an object using super-pixels based on thermal imaging. The present invention also relates to a monitoring system of an object comprising a cost axis based on thermal imaging.

일반적으로, 닭, 오리, 돼지, 개, 소, 말 등 기타의 가축을 기르는 축산 농가에서는 사육 또는 증식되는 가축에 대해 그 생체변화, 예를 들어, 생리변화, 질병발생, 응급환축발견 등을 적시에 파악해 필요한 조치를 취하는 것이 중요한 사항이다.Generally, in livestock farms that feed on livestock such as chickens, ducks, pigs, dogs, cows, horses and other livestock, it is necessary to timely change the biological changes such as physiological changes, disease occurrence, It is important to identify and take necessary measures.

한편, 종래 기술 중 가축 각각에 생체 기기를 부착하여, 가축의 생체변화를 파악하는 방법이 개시된 바 있다. 종래 기술은 수많은 가축 각각에 생체 기기를 부착해야 하므로, 경제적 부담이 가해지게 되고, 생체 변화 데이터를 일괄적으로 회수하고 분석해야 하므로, 즉각적인 생체 변화 파악 및 그에 대한 즉각적인 조치가 불가능하다는 문제점이 있다.On the other hand, a method has been disclosed in which bio-equipment is attached to each of the livestock in the prior art to grasp the living body changes of the livestock. The prior art has a problem in that the bio-equipment must be attached to each of a large number of livestock, so that an economic burden is imposed and the biometric data must be collectively collected and analyzed, so that it is impossible to immediately grasp the biometric data and immediately take measures therefor.

또한, 생체 변화 데이터를 통해 가축의 생체변화를 파악하기 위해서는 전문 기관에 생체 변화 데이터를 보내고, 전문 기관에서 분석된 데이터를 수신하여 생체 변화를 파악할 수 있으므로, 즉각적인 파악이 불가능한 비효율적인 문제점이 존재한다.In addition, in order to grasp the living body change of the livestock through the living body change data, there is an inefficient problem that it is impossible to immediately grasp the living body change because the living body change data can be grasped by sending the living body changing data to the specialized institution and receiving the analyzed data .

또한, 대가축을 포함하는 객체를 정확히 인식하고 모니터링 하기 위해서는 각 객체를 정확히 식별할 필요가 있으나, 객체 별로 명확히 구분되어 있지 않고 어우러져(merge) 있으며, 각 객체의 형상이 구획, 균일, 직선적이지 않은(non-rigid) 가축의 특성 상 열화상 영상에서 각각의 객체를 분리하여 추적하기 어려운 문제점이 존재하며, 영상의 프레임별 객체의 움직임을 추적함으로써, 객체 추적의 정확성 및 신뢰성을 제고할 필요가 있다.In addition, it is necessary to accurately identify each object in order to accurately recognize and monitor the object including the major axis. However, it is not clearly distinguished for each object and merges, and the shape of each object is not divided, uniform, non-rigid) There is a problem that it is difficult to separate and track each object in the thermal image due to the characteristics of the livestock. It is necessary to improve the accuracy and reliability of object tracking by tracking the movement of the object per frame of the image.

본원의 배경이 되는 기술은 한국공개특허공보 제10-2014-0105626호(공개일: 2014년 09월 02일)에 개시되어 있다.The background technology of the present application is disclosed in Korean Patent Laid-Open Publication No. 10-2014-0105626 (published on Sep. 02, 2014).

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 열화상 영상을 다수의 슈퍼픽셀로 분할하여 프레임별 직선적이지 않은(non-rigid) 형상을 가지는 객체의 인식 및 움직임을 추적할 수 있는 열화상 영상 기반의 슈퍼픽셀을 활용한 객체 추적 장치 및 방법을 제공하는 것을 목적으로 한다.The present invention has been made to solve the above-mentioned problems of the prior art, and it is an object of the present invention to provide a method and apparatus for dividing a thermal image into a plurality of superpixels to generate a thermal image capable of tracking the recognition and movement of an object having a non- And an object tracking apparatus and method using an image-based super-pixel.

또한, 본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 슈퍼픽셀의 세그먼트에 라벨을 부여하고, 슈퍼픽셀 세그먼트 간의 비용함수에 기초하여 다음 프레임에서의 객체의 슈퍼픽셀 세그먼트에 정확히 라벨을 부여하여 객체를 정확히 모니터링할 수 있는 있는 열화상 영상 기반의 슈퍼픽셀을 활용한 객체 추적 장치 및 방법을 제공하는 것을 목적으로 한다.In addition, the present invention is directed to solving the above-described problems of the prior art, and it is an object of the present invention to label a segment of a superpixel and accurately label a superpixel segment of an object in a next frame based on a cost function between the superpixel segments And an object tracking apparatus and method using an super-pixel based thermal image capable of accurately monitoring an object.

다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들도 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.It should be understood, however, that the technical scope of the embodiments of the present invention is not limited to the above-described technical problems, and other technical problems may exist.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 열화상 영상 기반의 슈퍼픽셀을 활용한 객체 추적 방법은, 프레임별 열화상 영상을 수집하는 단계, 상기 열화상 영상을 세그먼트 단위의 복수의 슈퍼픽셀로 분할하는 단계, 기준 프레임의 세그먼트 중 객체에 대응하는 세그먼트를 식별하는 라벨을 부여하는 단계, 다음 프레임의 세그먼트와 상기 객체에 대응하는 상기 세그먼트 간의 비용함수를 연산하는 단계 및 상기 비용함수의 연산값에 기초하여 다음 프레임의 상기 객체에 대응하는 세그먼트에 라벨을 부여하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a method of tracking an object using a super-pixel based on a thermal image, the method comprising: collecting a thermal image for each frame; A label identifying a segment corresponding to an object in the segment of the reference frame; computing a cost function between the segment of the next frame and the segment corresponding to the object; And labeling a segment corresponding to the object of the next frame based on the calculated value of the cost function.

본원의 일 실시예에 따르면, 상기 비용함수를 연산하는 단계는, 다음 프레임의 세그먼트와 기준 프레임의 객체에 대응하는 세그먼트 간의 색상 속성 및 다음 프레임의 세그먼트의 중심 위치와 기준 프레임의 객체에 대응하는 세그먼트의 중심 위치와 연계된 위치 속성에 기초하여 수행될 수 있다.According to an embodiment of the present invention, the calculating of the cost function includes calculating a color attribute between a segment of a next frame and a segment corresponding to an object of a reference frame, a center position of a segment of a next frame, Based on the positional attribute associated with the center position of < / RTI >

본원의 일 실시예에 따르면, 상기 다음 프레임의 세그먼트에 라벨을 부여하는 단계는, 상기 비용함수의 연산값이 최소인 적어도 하나의 세그먼트에 상기 라벨을 부여할 수 있다.According to an embodiment of the present invention, labeling the segment of the next frame may impart the label to at least one segment having a minimum calculated value of the cost function.

본원의 일 실시예에 따르면, 상기 비용함수의 연산값이 최소인 적어도 하나의 세그먼트는 수학식 1에 기초하여 결정될 수 있다.According to one embodiment of the present application, at least one segment whose computed value of the cost function is the smallest may be determined based on Equation (1).

본원의 일 실시예에 따르면, 상기 다음 프레임의 세그먼트에 라벨을 부여하는 단계는, 상기 다음 프레임의 모든 세그먼트와 상기 기준 프레임의 상기 객체에 대응하는 복수의 세그먼트 각각의 상기 비용함수를 연산하되, 상기 객체에 대응하는 세그먼트 별 연산값 중 최소값에 대응하는 다음 프레임의 세그먼트에 상기 라벨을 부여할 수 있다.According to an embodiment of the present invention, labeling the segment of the next frame may include calculating the cost function of each segment of the next frame and each of the plurality of segments corresponding to the object of the reference frame, The label can be given to the segment of the next frame corresponding to the minimum value among the computed values for each segment corresponding to the object.

본원의 일 실시예에 따르면, 객체 추적 방법은, 상기 다음 프레임의 세그먼트 중 라벨이 부여된 세그먼트가 1개인 경우, 상기 다음 프레임의 열화상 영상을 이진화 영상으로 변환하는 단계 상기 이진화 영상에 기초하여 상기 라벨이 부여된 세그먼트와 유사 특성을 갖는 복수의 세그먼트를 검출하여 라벨 부여 대상을 결정하는 단계 및 검출된 상기 복수의 세그먼트에 상기 라벨을 보충하는 단계를 더 포함할 수 있다.According to an embodiment of the present invention, an object tracking method further includes a step of converting a thermal image of the next frame into a binarized image, when the labeled segment of the segment of the next frame is one, Detecting a plurality of segments having similar characteristics to the labeled segments to determine a labeling object, and supplementing the detected labels with the plurality of segments.

본원의 일 실시예에 따르면, 객체 추적 방법은, 상기 다음 프레임의 상기 라벨이 부여된 복수의 세그먼트 상호간 이격거리를 연산하는 단계 및 상기 이격거리가 미리 설정된 거리 이상인 경우, 상대적으로 크기가 작은 세그먼트의 라벨을 제거하는 단계를 더 포함할 수 있다.According to an embodiment of the present invention, an object tracking method includes: calculating a distance between a plurality of segments to which the label of the next frame is assigned; and when the distance is equal to or greater than a preset distance, And removing the label.

본원의 일 실시예에 따르면, 상기 슈퍼픽셀로 분할하는 단계는, 상기 열화상 영상의 각 화소의 유사 특성을 고려하여 밀집성, 경계일치도, 과소분할의 최소화, 균일성 중 적어도 하나의 특성에 기초하여 수행될 수 있다.According to one embodiment of the present invention, the step of dividing into super pixels includes a step of, based on at least one of density, boundary agreement, minimization of under-division, and uniformity in consideration of similar characteristics of each pixel of the thermal image, .

본원의 일 실시예에 따른 열화상 영상 기반의 슈퍼픽셀을 활용한 객체 추적 장치는, 프레임별 열화상 영상을 수집하는 영상 수집부, 상기 열화상 영상을 세그먼트 단위의 복수의 슈퍼픽셀로 분할하는 영상 제어부, 기준 프레임의 세그먼트 중 객체에 대응하는 세그먼트를 식별하는 라벨을 부여하는 세그먼트 제어부 및 다음 프레임의 세그먼트와 상기 객체에 대응하는 상기 세그먼트 간의 비용함수를 연산하는 연산부를 포함하되, 상기 세그먼트 제어부는, 상기 비용함수의 연산값에 기초하여 다음 프레임의 상기 객체에 대응하는 세그먼트에 상기 라벨을 부여할 수 있다.An object tracking apparatus using a super-pixel based on a thermographic image according to an embodiment of the present invention includes an image collecting unit for collecting thermal image for each frame, an image dividing unit for dividing the thermal image into a plurality of super- A segment control unit for providing a label identifying a segment corresponding to an object among the segment of the reference frame, and an operation unit for calculating a cost function between a segment of a next frame and the segment corresponding to the object, The label may be assigned to the segment corresponding to the object of the next frame based on the calculated value of the cost function.

본원의 일 실시예에 따르면, 상기 연산부는, 다음 프레임의 세그먼트와 기준 프레임의 객체에 대응하는 세그먼트 간의 색상 속성 및 다음 프레임의 세그먼트의 중심 위치와 기준 프레임의 객체에 대응하는 세그먼트의 중심 위치와 연계된 위치 속성에 기초하여 상기 비용함수를 연산할 수 있다.According to an embodiment of the present invention, the arithmetic operation unit may calculate a color attribute between a segment of a next frame and a segment corresponding to an object of the reference frame, a color attribute between a center position of a segment of the next frame, and a center position of a segment corresponding to an object of the reference frame Lt; RTI ID = 0.0 > location < / RTI > attribute.

본원의 일 실시예에 따르면, 상기 세그먼트 제어부는, 상기 비용함수의 연산값이 최소인 적어도 하나의 세그먼트에 상기 라벨을 부여할 수 있다.According to an embodiment of the present invention, the segment control unit may assign the label to at least one segment having a minimum calculated value of the cost function.

본원의 일 실시예에 따르면, 상기 비용함수의 연산값이 최소인 적어도 하나의 세그먼트는 수학식 2에 기초하여 결정될 수 있다.According to one embodiment of the present application, at least one segment with a minimum calculated value of the cost function may be determined based on Equation (2).

본원의 일 실시예에 따르면, 상기 연산부는, 상기 다음 프레임의 모든 세그먼트와 상기 기준 프레임의 상기 객체에 대응하는 복수의 세그먼트 각각의 상기 비용함수를 연산하되, 상기 세그먼트 제어부는, 상기 객체에 대응하는 세그먼트 별 연산값 중 최소값에 대응하는 다음 프레임의 세그먼트에 상기 라벨을 부여할 수 있다.According to an embodiment of the present invention, the operation unit calculates the cost function of each of the segments of the next frame and each of the plurality of segments corresponding to the object of the reference frame, wherein the segment control unit It is possible to give the label to the segment of the next frame corresponding to the minimum value among the computed values for each segment.

본원의 일 실시예에 따르면, 상기 다음 프레임의 세그먼트 중 라벨이 부여된 세그먼트가 1개인 경우, 상기 영상 제어부는, 상기 다음 프레임의 열화상 영상을 이진화 영상으로 변환하고, 상기 세그먼트 제어부는, 상기 이진화 영상에 기초하여 상기 라벨이 부여된 세그먼트와 유사 특성을 갖는 복수의 세그먼트를 검출하여 라벨 부여 대상을 결정하고, 검출된 상기 복수의 세그먼트에 상기 라벨을 보충할 수 있다.According to an embodiment of the present invention, when there is one labeled segment in the segment of the next frame, the image control unit converts a thermal image of the next frame into a binary image, and the segment control unit It is possible to detect a plurality of segments having similar characteristics to the segment to which the label is given based on the image to determine a labeling target and to supplement the label to the detected plurality of segments.

본원의 일 실시예에 따르면, 상기 연산부는, 상기 다음 프레임의 상기 라벨이 부여된 복수의 세그먼트 상호간 이격거리를 연산하고, 상기 세그먼트 제어부는, 상기 이격거리가 미리 설정된 거리 이상인 경우, 상대적으로 크기가 작은 세그먼트의 라벨을 제거할 수 있다.According to an embodiment of the present invention, the operation unit calculates a distance between a plurality of segments to which the label is assigned in the next frame, and when the distance is equal to or larger than a preset distance, You can remove labels from small segments.

본원의 일 실시예에 따르면, 상기 영상 제어부는, 상기 열화상 영상의 각 화소의 유사 특성을 고려하여 밀집성, 경계일치도, 과소분할의 최소화, 균일성 중 적어도 하나의 특성에 기초하여 슈퍼픽셀로 분할할 수 있다.According to an embodiment of the present invention, the image controller divides the image into super pixels based on at least one characteristic of density, boundary agreement, minimization of under-division, and uniformity in consideration of similar characteristics of each pixel of the thermal image. can do.

본원의 일 실시예에 따르면, 객체 모니터링 시스템은, 축사의 영상 정보를 획득하고, 상기 축사의 환경 정보를 수집하는 수집 장치 및 상기 수집 장치로부터 수신한 영상 정보 및 환경 정보에 기초하여 가축의 행동을 모니터링하는 서버를 포함하되, 상기 영상 정보는 상기 가축의 열화상 영상을 포함하고, 상기 서버는 상술한 객체 추적 방법에 기초하여 가축의 행동을 모니터링할 수 있다.According to an embodiment of the present invention, an object monitoring system includes a collection device that acquires image information of a barn, collects environmental information of the barn, and a behavior of a livestock based on image information and environment information received from the collection device Wherein the image information includes a thermal image of the livestock and the server is capable of monitoring livestock behavior based on the object tracking method described above.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described task solution is merely exemplary and should not be construed as limiting the present disclosure. In addition to the exemplary embodiments described above, there may be additional embodiments in the drawings and the detailed description of the invention.

전술한 본원의 과제 해결 수단에 의하면, 열화상 영상을 다수의 슈퍼픽셀로 분할하고 슈퍼픽셀 세그먼트 간의 비용함수에 기초하여 다음 프레임에서의 객체의 슈퍼픽셀 세그먼트에 정확히 라벨을 부여하여 객체를 정확히 인식하고 모니터링할 수 있다.According to the above-described task solution of the present invention, the thermal image is divided into a plurality of super pixels and the super-pixel segments of the object in the next frame are accurately labeled based on the cost function between the super pixel segments to accurately recognize the object Can be monitored.

또한, 본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 슈퍼픽셀의 세그먼트에 라벨을 부여하고, 비용함수에 기초하여 다음 프레임의 세그먼트에 라벨을 부여하여 프레임별 직선적이지 않은(non-rigid) 형상을 가지는 객체의 움직임을 정확히 모니터링할 수 있다.According to an aspect of the present invention, there is provided a method for providing a label to a segment of a superpixel, labeling a segment of a next frame based on a cost function, The movement of the object having the shape can be accurately monitored.

도 1은 본원의 일 실시예에 따른 객체 모니터링 시스템의 개략적인 구성을 나타낸 도면이다.
도 2는 본원의 일 실시예에 따른 객체 모니터링 시스템의 구성을 나타낸 블록도이다.
도 3은 본원의 일 실시예에 따른 열화상 영상 기반의 슈퍼픽셀을 활용한 객체 추적 장치의 구성을 도시한 도면이다.
도 4는 본원의 일 실시예에 따른, 열화상 영상의 슈퍼픽셀 분할 및 라벨링의 예를 도시한 도면이다.
도 5는 본원의 일 실시예에 따른 열화상 영상의 다음 프레임에서 객체를 추적하여 라벨을 부여한 예를 도시한 도면이다.
도 6은 본원의 일 실시예에 따른, 객체 추적 방법의 라벨 보충의 예를 도시한 도면이다.
도 7은 본원의 일 실시예에 따른 객체 추적 방법의 라벨 보정의 예를 도시한 도면이다.
도 8은 본원의 일 실시예에 따른 객체 추적 방법의 흐름을 도시한 도면이다.
도 9는 본원의 일 실시예에 따른, 객체 추적 방법의 라벨 보충의 흐름을 도시한 도면이다.
1 is a diagram showing a schematic configuration of an object monitoring system according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of an object monitoring system according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating a configuration of an object tracking apparatus using a super-pixel based on a thermal image according to an embodiment of the present invention.
4 is a diagram illustrating an example of superpixel segmentation and labeling of thermographic images, according to one embodiment of the present invention.
FIG. 5 is a diagram illustrating an example in which an object is traced and a label is assigned in a next frame of a thermal image according to an exemplary embodiment of the present invention.
6 is a diagram illustrating an example of label supplementation of an object tracking method according to an embodiment of the present invention.
7 is a diagram illustrating an example of label correction of an object tracking method according to an embodiment of the present invention.
8 is a flowchart illustrating an object tracking method according to an embodiment of the present invention.
9 is a diagram illustrating a flow of label replenishment of an object tracking method according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. It should be understood, however, that the present invention may be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In the drawings, the same reference numbers are used throughout the specification to refer to the same or like parts.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when a part is referred to as being "connected" to another part, it is not limited to a case where it is "directly connected" but also includes the case where it is "electrically connected" do.

본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.It will be appreciated that throughout the specification it will be understood that when a member is located on another member "top", "top", "under", "bottom" But also the case where there is another member between the two members as well as the case where they are in contact with each other.

본원 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout this specification, when an element is referred to as "including " an element, it is understood that the element may include other elements as well, without departing from the other elements unless specifically stated otherwise.

도 1은 본원의 일 실시예에 따른 객체 모니터링 시스템의 개략적인 구성을 나타낸 도면이고, 도 2는 본원의 일 실시예에 따른 객체 모니터링 시스템의 구성을 나타낸 블록도이다. 도 1 내지 도2를 참조하면, 객체 모니터링 시스템은, 수집 장치(100) 및 서버(200)를 포함할 수 있다. 객체 모니터링 시스템은, 가축 및 축사의 환경을 감지하고, 이를 분석하여 필요한 조치를 취할 수 있도록 하기 위한 것으로서, 도 1을 참조하면, 수집 장치(100)에서 획득된 정보는 서버(200)로 전송되어 서버(200)에 의해 가축의 이상 상태 여부가 파악될 수 있다. 서버(200)는 네트워크(10)를 통해 데이터베이스(20) 또는 사용자 단말(30)로 가축의 이상 상태 여부에 관한 정보를 포함하여 각종 모니터링 정보를 전송할 수 있다. 예를 들어, 상기 객체는 소, 돼지 등의 대가축을 포함할 수 있다.FIG. 1 is a block diagram showing a schematic configuration of an object monitoring system according to an embodiment of the present invention, and FIG. 2 is a block diagram showing a configuration of an object monitoring system according to an embodiment of the present invention. 1 and 2, the object monitoring system may include a collection device 100 and a server 200. [ The object monitoring system is for detecting an environment of livestock and housing and analyzing the environment to take necessary measures. Referring to FIG. 1, the information obtained in the collecting apparatus 100 is transmitted to the server 200 The server 200 can determine whether or not the animal is in an abnormal state. The server 200 may transmit various monitoring information including information on whether the animal is abnormal or not via the network 10 to the database 20 or the user terminal 30. [ For example, the object may include a large axis such as a cow, a pig, and the like.

수집 장치(100)는 축사의 영상 정보를 획득하고, 축사의 환경 정보를 수집할 수 있다. 수집 장치(100)는 열화상 촬영부(110), 광각 촬영부(120) 및 환경 감지부(130)를 포함할 수 있다. 먼저, 열화상 촬영부(110)는 가축의 체온 분포 영상(열화상 영상)을 획득할 수 있다. 예시적으로 열화상 촬영부(110)는 복수개의 열화상 카메라를 포함할 수 있다. 열화상 촬영부(110)는 특정 온도에 따라 해당 파장이 방출되는 적외선을 촬영하여, 가축의 머리, 몸통, 다리 등 각 부위별 온도 분포 영상을 획득할 수 있다. 즉 열화상 촬영부(110)는 촬영된 가축의 영상을 가축의 부위별 온도 분포에 따라, 서로 다른 색으로 표시할 수 있다. 또한, 열화상 촬영부(110)는 구동 유닛을 포함할 수 있으며, 상기 구동 유닛에 의해 촬영각도가 변경될 수 있다.The collecting apparatus 100 can acquire image information of a barn and collect environmental information of the barn. The collecting apparatus 100 may include a thermal imaging unit 110, a wide-angle imaging unit 120, and an environment sensing unit 130. First, the thermal imaging unit 110 can acquire a body temperature distribution image (thermal imaging image) of a livestock. Illustratively, the thermal imaging unit 110 may include a plurality of thermal imaging cameras. The thermal imaging unit 110 can acquire a temperature distribution image of each part of a livestock such as a head, a body, and a leg by capturing an infrared ray having a corresponding wavelength according to a specific temperature. That is, the thermal imaging unit 110 can display images of the captured livestock in different colors according to the temperature distribution of each part of the livestock. Further, the thermal imaging unit 110 may include a drive unit, and the angle of view may be changed by the drive unit.

광각 촬영부(120)는 축사의 광각 영상을 획득할 수 있다. 광각 촬영부(120)는 복수개의 광각 카메라를 포함할 수 있으며, 광각 영상은 축사 및 축사 내에 사육되는 가축의 영상 및 사진을 포함할 수 있다. 광각 카메라를 활용함으로써, 축사의 낮은 위치에 광각 촬영부(120)가 위치하더라도 축사의 넓은 영역을 촬영할 수 있다. 상기 광각 촬영부(120)는 구동 유닛을 포함할 수 있으며, 상기 구동 유닛에 의해 촬영각도가 변경될 수 있다. 예시적으로, 열화상 촬영부(110) 및 광각 촬영부(120)는 후술하는 사용자 단말(30)로부터 구동 명령을 수신할 수 있고, 구동 명령에 기초하여 구동 유닛이 구동될 수 있다.The wide angle photographing unit 120 can acquire a wide angle image of the house. The wide-angle photographing unit 120 may include a plurality of wide-angle cameras, and the wide-angle photographs may include images and photographs of livestock that are housed in a house and a house. By using the wide angle camera, even if the wide angle photographing unit 120 is located at a low position of the housing, a large area of the house can be photographed. The wide angle photographing unit 120 may include a driving unit, and the photographing angle may be changed by the driving unit. Illustratively, the thermal imaging unit 110 and the wide-angle photographing unit 120 can receive a drive command from a user terminal 30 (to be described later), and the drive unit can be driven based on the drive command.

또한, 본원의 일 실시예에 따르면, 열화상 촬영부(110) 및 광각 촬영부(120)는 통신 유닛을 각각 구비하여, 식별자 통신 모듈(150)로부터 가축 각각의 식별자를 수신할 수 있다.Further, according to one embodiment of the present invention, the thermal imaging unit 110 and the wide-angle imaging unit 120 may each include a communication unit, and may receive an identifier of each animal from the identifier communication module 150. [

환경 감지부(130)는 축사 내부의 환경을 감지할 수 있다. 상기 환경이란, 예를 들어, 축사 내부의 대기온도, 이산화탄소 농도 등을 의미할 수 있다. 도 1을 참조하면, 환경 감지부(130)는 온습도 측정 유닛(131), 이산화탄소 측정 유닛(132), 풍향 풍속 측정 유닛(133) 및 환풍 유닛(134) 중 적어도 하나를 포함할 수 있다.The environment sensing unit 130 may sense the environment inside the housing. The above-mentioned environment may mean, for example, the atmospheric temperature inside the housing, the carbon dioxide concentration, and the like. 1, the environment sensing unit 130 may include at least one of a temperature / humidity measurement unit 131, a carbon dioxide measurement unit 132, a wind direction measurement unit 133, and a ventilation unit 134.

또한, 상기 환경 감지부(130)에서 획득된 정보는 게이트웨이(135)로 전송되고, 게이트웨이(135)는 획득된 정보를 취합하여 환경 정보를 모니터링 서버(210)로 전송할 수 있다. 상기 환경 정보는, 환경 감지부(130)에서 감지된 축사의 온습도, 이산화탄소 농도, 풍향 및 풍속 중 적어도 하나를 포함할 수 있다.The information acquired by the environment sensing unit 130 may be transmitted to the gateway 135. The gateway 135 may collect the acquired information and transmit the environment information to the monitoring server 210. [ The environment information may include at least one of temperature and humidity of the housing, carbon dioxide concentration, wind direction, and wind velocity detected by the environment sensing unit 130.

상기 수집 장치(100)에서 수집하는 영상 정보는 상기 열화상 촬영부(110) 및 광각 촬영부(120)에서 촬영된 체온 분포 영상(열화상 영상) 및 광각 영상을 포함할 수 있다. 영상 정보 및 환경 정보는 기설정된 주기(예를 들어, 1초)마다 서버(200)로 전송될 수 있다. 예시적으로, 수집 장치(100)는 RF통신 또는 지그비(zigbee)통신을 이용하여 영상 정보 및 환경 정보를 서버(200)로 전송할 수 있다.The image information collected by the collecting apparatus 100 may include a body temperature distribution image (thermal image) and a wide angle image photographed by the thermal imaging unit 110 and the wide angle imaging unit 120. The image information and the environment information may be transmitted to the server 200 every predetermined period (for example, one second). Illustratively, the acquisition device 100 may transmit image and environmental information to the server 200 using RF communications or zigbee communications.

서버(200)는 수집 장치(100)로부터 수신한 영상 정보 및 환경 정보에 기초하여 축사 환경의 변화, 가축의 생체 변화 및 행동 패턴을 분석할 수 있다. 또한, 서버(200)는 상기 분석 결과에 기초하여 가축의 이상 상태를 판단할 수 있다.The server 200 can analyze the change of the housing environment, the living body changes of the livestock and the behavior pattern based on the image information and the environment information received from the collection device 100. [ In addition, the server 200 can determine an abnormal state of the livestock based on the analysis result.

도 2를 참조하면, 서버(200)는 모니터링 서버(210), 영상 처리 서버(220) 및 데이터 서버(230)를 포함할 수 있다. 모니터링 서버(210)는 수집 장치(100)로부터 수신된 환경 정보에 기초하여 축사 환경의 변화를 감지할 수 있다. 예시적으로, 모니터링 서버(210)는 축사의 온습도, 이산화탄소 농도, 풍향 및 풍속 중 적어도 하나가 임계치를 초과한 경우, 이상 상태가 발생한 것으로 판단할 수 있다. 이때, 임계치는, 온습도, 이산화탄소 농도, 풍향 및 풍속에 대응하여 각각 설정될 수 있다. 모니터링 서버(210)의 판단은, 가축에 직접적인 변화가 일어나지 않더라도, 수행될 수 있다. 예를 들어, 축사 내 화재가 발생하여 가축에게 영향을 미칠 수 있는 경우, 축사의 환경 변화를 통해 이상 상태의 발생을 판단할 수 있다.Referring to FIG. 2, the server 200 may include a monitoring server 210, an image processing server 220, and a data server 230. The monitoring server 210 may sense a change in the housing environment based on the environmental information received from the collection device 100. [ Illustratively, the monitoring server 210 may determine that an anomaly has occurred if at least one of the temperature, humidity, carbon dioxide concentration, wind direction and wind speed of the housing exceeds a threshold value. At this time, the threshold value can be set corresponding to the temperature and humidity, the carbon dioxide concentration, the wind direction and the wind speed, respectively. The determination of the monitoring server 210 can be performed even if there is no direct change in the animal. For example, if fires in a house can occur and affect livestock, the occurrence of an anomaly can be determined through environmental changes in the house.

영상 처리 서버(220)는 수집 장치(100)로부터 수신된 영상 정보에 기초하여 가축의 생체 변화 또는 행동 패턴을 분석할 수 있다. 예시적으로, 생체 변화 및 행동 패턴은 가축의 생리변화, 질병 감염, 상해 여부, 발육 및 발정 상태를 포함할 수 있다.The image processing server 220 can analyze the biological changes or behavior patterns of the livestock based on the image information received from the collection device 100. [ By way of example, the biotransformation and behavioral pattern can include changes in physiology of the livestock, disease infections, injury, development and estrus.

영상 처리 서버(220)는 열화상 촬영부(110)에서 촬영된 체온 분포 영상을 분석하여, 가축의 소정 영역의 온도 분포가 기설정된 제 1 임계 범위를 벗어나는지 판단할 수 있다. 상기 소정 영역은 가축의 머리, 몸통, 다리 등 각 부위를 의미할 수 있다. 상기 제 1 임계 범위는 예를 들어, 가축의 평상시 체온의 범위일 수 있다. 영상 처리 서버(220)는 가축의 소정 영역의 체온이 제 1 임계 범위를 초과하거나 미만인 경우, 가축이 이상 상태인 것으로 판단할 수 있다.The image processing server 220 may analyze the body temperature distribution image photographed by the thermal imaging unit 110 to determine whether the temperature distribution of a predetermined region of the livestock exceeds a predetermined first threshold range. The predetermined region may refer to a head, a trunk, a leg, or the like of a livestock. The first critical range may be, for example, the range of normal body temperature of the livestock. The image processing server 220 can determine that the animal is in an abnormal state when the body temperature of the predetermined area of the animal is greater than or less than the first threshold range.

즉, 영상 처리 서버(220)는 체온 분포 영상에 기초하여, 가축의 생체 변화를 분석할 수 있다. 예시적으로, 가축의 생식기 부위의 체온이 제 1 임계 범위를 초과한 경우, 영상 처리 서버(220)는 가축이 발정기인 것으로 판단할 수 있고, 새끼를 밴 가축의 복부 체온이 제 1임계 범위를 초과하거나, 제 1임계 범위 미만으로 떨어지는 경우, 상기 어미 또는 새끼에 이상이 발생한 것으로 판단할 수 있다.That is, the image processing server 220 can analyze the biological changes of the livestock based on the body temperature distribution image. Illustratively, if the body temperature of the genital part of the livestock exceeds the first threshold range, the image processing server 220 may determine that the livestock is an estrus, Or falls below the first threshold range, it can be determined that an abnormality has occurred in the mother or the young.

또한, 영상 처리 서버(220)는 광각 영상을 분석하여 가축의 이동량이 기설정된 제 2 임계 범위를 벗어나는지 판단할 수 있다. 상기 제 2 임계 범위는 예를 들어, 가축이 미리 설정된 시간 동안(예를 들어, 하루) 이동한 총 거리의 통계 또는 평균에 기초하여 설정될 수 있다. 영상 처리 서버(220)는 가축의 이동량이 제 2 임계 범위를 초과하거나 미만인 경우, 가축이 이상 상태인 것으로 판단할 수 있다. 영상 처리 서버(220)는 촬영한 영상을 분석하고, 축사의 크기, 가축의 이동 시간 등에 기초하여 미리 저장된 알고리즘에 따라 가축의 이동량을 산출할 수 있다.In addition, the image processing server 220 may analyze the wide-angle image to determine whether the movement amount of the livestock is out of a predetermined second threshold range. The second threshold range may be set based on, for example, statistics or averages of the total distance the livestock has moved for a predetermined time (e.g., one day). The image processing server 220 can determine that the animal is in an abnormal state when the movement amount of the animal is greater than or less than the second threshold range. The image processing server 220 may analyze the photographed image and calculate the movement amount of the livestock according to a previously stored algorithm based on the size of the housing, the moving time of the livestock, and the like.

자세히 설명하면, 영상 처리 서버(220)는 가축의 이동량에 기초하여 가축의 행동 패턴을 분석할 수 있다. 예시적으로, 가축의 이동이 없어 제 2 임계 범위 미만의 이동량이 관측된 경우, 상기 가축의 질병 또는 상해 등에 의해 행동 패턴에 이상이 발생한 것으로 판단할 수 있다.More specifically, the image processing server 220 can analyze the behavior pattern of livestock based on the moving amount of the livestock. Illustratively, if there is no movement of livestock and a movement amount less than the second critical range is observed, it can be determined that an abnormality has occurred in the behavior pattern due to disease or injury of the livestock.

또한, 본원의 일 실시예에 따르면, 영상 처리 서버(220)는 가축의 소정 영역의 온도 분포가 기설정된 제 1 임계 범위를 벗어남과 동시에, 가축의 이동량이 제2 임계 범위를 벗어나는 경우, 가축이 이상 상태인 것으로 판단할 수 있다. 영상 처리 서버(220)는 열화상 영상과 광각 영상을 모두 참조하여 가축의 이상 상태 여부를 판단함으로써, 판단의 정확도를 더욱 높일 수 있다.In addition, according to one embodiment of the present invention, when the temperature distribution of a predetermined region of a livestock deviates from a predetermined first threshold range and the amount of livestock movement deviates from a second threshold range, It can be determined that it is in an abnormal state. The image processing server 220 can determine the abnormality state of the livestock referring to both the thermal image and the wide angle image, thereby further improving the accuracy of the determination.

도 1 내지 도 2를 참조하면, 서버(200)는 데이터 서버(230)를 포함할 수 있다. 데이터 서버(230)는 가축의 이상 상태 판단 결과를 축사 환경의 변화 분석 결 과, 가축의 생체 변화 분석 결과, 행동 패턴의 분석 결과, 상기 영상 정보 및 상기 환경 정보 중 적어도 일부와 함께 네트워크(10)를 통해 데이터베이스(20) 및 사용 자 단말(30) 중 적어도 어느 하나로 전송할 수 있다. 실시예에 따라서는, 상기 데이터 서버(230)는 상기 데이터베이스(20) 및 사용자 단말(30)뿐만 아니라, 가축의 의료시설에 구비된 장치로도 전송할 수 있다.Referring to FIGS. 1 and 2, the server 200 may include a data server 230. The data server 230 transmits the result of the abnormal state determination of the livestock to the network 10 together with at least a part of the analysis result of the change of the housing environment, the analysis result of the living body, To the database 20 and / or the user terminal 30 via the Internet. According to an embodiment, the data server 230 may transmit not only the database 20 and the user terminal 30 but also an apparatus provided in a livestock medical facility.

상기 네트워크(10)는 단말 및 서버와 같은 각각의 노드 상호 간에 정보 교환이 가능한 유, 무선의 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.The network 10 refers to a connection structure between a node and a wireless network capable of exchanging information between nodes such as a terminal and a server. An example of such a network is a 3rd Generation Partnership Project (3GPP) network, a Long Term A Wide Area Network (WAN), a Personal Area Network (PAN), a Personal Area Network (LAN), a Personal Area Network (LAN) ), A Bluetooth network, a satellite broadcast network, an analog broadcast network, a Digital Multimedia Broadcasting (DMB) network, and the like.

상기 사용자 단말(30)은, 네트워크(10)를 통해 서버(200)와 통신하는 디바이스로서, 예를 들면, 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC, 웨어러블 디바이스 등과 PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W- Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말기 같은 모든 종류의 무선 통신 장치 및 데스크탑 컴퓨터, 스마트 TV와 같은 고정용 단말기일 수도 있다.The user terminal 30 is a device that communicates with the server 200 through the network 10 and may be a device such as a smartphone, a SmartPad, a tablet PC, a wearable device, System, a GSM (Global System for Mobile communication), a PDC (Personal Digital Cellular), a PHS (Personal Handyphone System), a PDA (Personal Digital Assistant), an IMT (International Mobile Telecommunication) 2000, W-Code Division Multiple Access (W-CDMA), Wireless Broadband Internet (Wibro) terminals, desktop computers, and smart TVs.

데이터베이스(20) 또는 사용자 단말(30)은 객체 모니터링 시스템의 서버(200) (예를 들어, 데이터 서버(230))에 접속하여, 축사 환경의 변화, 가축의 생체 변화 및 행동 패턴의 분석 결과, 영상 정보, 환경 정보 및 가축의 이상 상태 판단 결과를 확인할 수 있다. 데이터베이스(20) 또는 사용자 단말(30)은 원하는 시기에 서버(200)에 접속하여 상기와 같은 모니터링 정보를 확인할 수도 있으나, 서버(200)로부터 이상 상태 판단 결과를 수신한 경우에 상기 서버(200)에 접속할 수도 있다.The database 20 or the user terminal 30 may be connected to the server 200 (e.g., the data server 230) of the object monitoring system and may be configured to analyze the changes in the housing environment, Image information, environmental information, and the result of the abnormal state determination of the livestock. The database 20 or the user terminal 30 can access the server 200 at a desired time to check the monitoring information as described above. However, if the server 200 receives the abnormal state determination result from the server 200, .

예시적으로, 사용자 단말(30)은 열화상 촬영부(110) 또는 광각 촬영부(120)를 제어하기 위한 제어 신호를 서버(200)로 전송할 수 있다. 자세히 설명하면, 사용자 단말(30)의 사용자가 축사의 특정 부분(예를 들어 특정 가축)을 중심으로 관측하고자 하는 경우에, 서버(200)에 접속하여 제어 신호를 전송할 수 있다. 열화상 촬영부(110) 및 광각 촬영부(120)에 구비된 구동 유닛은 상기 제어 신호에 기초하여 촬영 각도가 변경될 수 있다. 이를 통해, 사용자 단말(30)의 사용자는 관측하고자 하는 축사의 특정 부분을 실시간으로 확인할 수 있다.Illustratively, the user terminal 30 may transmit a control signal to the server 200 to control the thermal imaging unit 110 or the wide-angle imaging unit 120. More specifically, when the user of the user terminal 30 wants to observe a specific part of the house (for example, a particular livestock) as the center, the user can connect to the server 200 and transmit the control signal. The photographing angle of the drive unit provided in the thermal imaging unit 110 and the wide angle photographing unit 120 can be changed based on the control signal. Accordingly, the user of the user terminal 30 can confirm a specific part of the barn to be observed in real time.

객체 모니터링 시스템은 체온 측정 모듈(140)을 포함할 수 있다. 체온 측정 모듈은 가축의 소정 위치에 장착될 수 있으며, 가축의 체온을 측정할 수 있다. 또한, 체온 측정 모듈(140)은 복수개 구비될 수 있으며, 가축의 각 부위에 위치하 여 부위별 체온을 측정할 수 있다. 체온 측정 모듈(140)은 측정된 가축의 체온에 관한 정보를 데이터 서버(230)로 전송할 수 있다. 체온 측정 모듈(140)은 RF통신 또는 지그비(zigbee)통신을 이용하여 측정된 체온을 데이터 서버(230)로 전송할 수 있다.The object monitoring system may include a body temperature measurement module 140. The body temperature measurement module can be mounted at a predetermined position of the livestock, and the body temperature of the livestock can be measured. In addition, a plurality of body temperature measurement modules 140 may be provided, and body temperature may be measured by each part of the body of a livestock. The body temperature measurement module 140 may transmit information on the measured body temperature of the livestock to the data server 230. The body temperature measurement module 140 may transmit the measured body temperature to the data server 230 using RF communication or zigbee communication.

데이터 서버(230)는 체온 측정 모듈(140)로부터 수신한 가축의 체온 정보와 열화상 촬영부(110)가 획득한 체온 분포 영상을 분석하여 가축의 온도 분포의 차이가 미리 설정된 오차 범위 내인 경우에 가축의 이상 상태 판단 결과를 데이터베이스(20) 및 사용자 단말(30)로 전송할 수 있다. 예시적으로, 데이터 서버(230)는 가축의 각 부위별 체온과, 부위별 온도 분포를 비교할 수 있다. 즉, 동일한 부위의 체온과 온도 분포가 미리 설정된 오차 범위를 초과한 경우, 체온 측정 모듈(140) 및 열화상 촬영부(110) 중 어느 하나에서 오류가 발생하였거나 촬영이 잘못 된 것으로 판단할 수 있다. 이러한 가축의 체온과 온도 분포의 비교를 통해, 신뢰성 있는 이상 상태 판단을 수행할 수 있다.The data server 230 analyzes the body temperature information of the livestock received from the body temperature measurement module 140 and the body temperature distribution image acquired by the thermal imaging unit 110 and determines whether the difference in the temperature distribution of the livestock is within a predetermined error range And can transmit the result of the abnormal state determination of the animal to the database 20 and the user terminal 30. Illustratively, the data server 230 may compare body temperature and local temperature distribution for each portion of the livestock. That is, when the body temperature and the temperature distribution in the same region exceed a predetermined error range, it can be determined that an error has occurred in the body temperature measurement module 140 or the thermal image pickup unit 110, . By comparing the body temperature and the temperature distribution of such livestock, a reliable anomaly determination can be performed.

객체 모니터링 시스템은 서버(200)로부터 수신하는 정보를 저장하는 데이터베이스(20)를 포함할 수 있다. 데이터베이스(20)는 영상 정보, 환경 정보, 축사 환경의 변화, 가축의 생체 변화 및 행동 패턴의 분석 결과 및 가축의 이상 상태 판단 결과를 가축의 식별자와 연계하여 저장할 수 있다.The object monitoring system may include a database 20 for storing information received from the server 200. The database 20 may store image information, environmental information, changes in housing environment, analysis results of biological changes and behavior patterns of livestock, and an anomalous state determination result of livestock in association with an identifier of a livestock.

본원의 일 실시예에 따르면, 도 1을 참조하면, 식별자 통신 모듈(150)은 가축의 식별자를 열화상 촬영부(110) 및 광각 촬영부(120)로 전송할 수 있다. 식별자 통신 모듈(150)은 RF통신 또는 지그비(zigbee)통신을 이용하여 가축의 식별자를 열 화상 촬영부(110) 및 광각 촬영부(120)로 전송할 수 있다. 열화상 촬영부(110) 및 광각 촬영부(120)는 가축의 식별자를 영상 정보와 함께 데이터 서버(230)로 공유할 수 있고, 데이터 서버(230)는 영상 정보, 환경 정보, 축사 환경의 변화, 가축의 생체 변화 및 행동 패턴의 분석 결과 및 가축의 이상 상태 판단 결과를 식별자와 함께 데이터베이스(20)로 전송할 수 있다. 예시적으로, 데이터베이스(20)는 객체 모니터링 시스템과 함께 구비될 수 있고, 원격지에 위치하여 네트워크(10)를 통해 데이터 서버(230)로부터 상술한 정보 및 식별자를 수신하여 저장할 수 있다.Referring to FIG. 1, the identifier communication module 150 may transmit an identifier of a livestock to the thermal imaging unit 110 and the wide-angle photographing unit 120. Referring to FIG. The identifier communication module 150 can transmit the identifier of the livestock to the thermal imaging unit 110 and the wide angle imaging unit 120 using RF communication or zigbee communication. The thermal imaging unit 110 and the wide angle imaging unit 120 can share the identifier of the animal with the data server 230 together with the image information and the data server 230 can share the image information, , Analysis results of the biological changes and behavior patterns of the livestock, and results of the anomalous state determination of the livestock can be transmitted to the database 20 together with the identifiers. Illustratively, the database 20 may be provided with an object monitoring system and may be located remotely to receive and store the above-described information and identifiers from the data server 230 via the network 10. [

본원의 일 실시예에 따르면, 데이터 서버(230)는 식별자 통신 모듈(150)로부터 열화상 촬영부(110) 및 광각 촬영부(120)로 수신된 상기 가축의 식별자와 가축의 체온, 광각 영상 및 체온 분포 영상에 기초하여 가축 각각을 식별할 수 있다. 가축이 복수 마리 있는 경우, 열화상 촬영부(110) 및 광각 촬영부(120)는 각 가축의 식별자 통신 모듈(150)에서 전송되는 식별자 신호를 감지(신호 세기 판단 등)하여 각 가축의 영상 정보를 획득할 수 있다. 또한, 사용자 단말(30)에서 촬영이 필요한 가축의 식별자 정보를 열화상 촬영부(110) 및 광각 촬영부(120)로 제공하면, 열화상 촬영부(110) 및 광각 촬영부(120)는 가축의 식별자 통신 모듈(150)에서 전송되는 식별자 신호를 감지(신호 세기 판단 등)하여 촬영이 필요한 가축의 영상 정보를 획득할 수 있다.According to one embodiment of the present invention, the data server 230 receives the identifier of the livestock received from the identifier communication module 150 and the temperature image, the wide-angle image, and the image of the livestock received by the thermal imaging unit 110 and the wide- Each of the cattle can be identified based on the body temperature distribution image. When there are a plurality of livestock, the thermal imaging unit 110 and the wide-angle photographing unit 120 sense the identifier signal transmitted from the identifier communication module 150 of each livestock to determine the image information of each livestock Can be obtained. The thermal imaging unit 110 and the wide angle photographing unit 120 may be configured to provide identification information of a livestock that needs to be photographed by the user terminal 30 to the thermal imaging unit 110 and the wide angle imaging unit 120, (Such as signal strength determination) of the identifier signal transmitted from the identifier communication module 150 of the terminal 100 to acquire image information of a livestock that needs to be photographed.

이하에서는 열화상 영상 기반 객체 추적 장치(300)에 대하여 설명한다. 본원의 일 실시예에 따른 열화상 영상 기반 객체 추적 장치(300)는 상술한 객체 모니터링 시스템의 서버(200)에 대응하는 것으로서, 영상 처리 서버(220) 및 데이터 서버(230) 중 적어도 어느 하나와 동일하거나 두 서버의 기능을 포함하는 별도의 서버, 장치 또는 모듈(유닛)으로 구현될 수 있다. 그러나 반드시 이에 한정되는 것은 아니며, 사용자 단말(30) 또는 서버(200)와 통신 연결되는 별도의 하드웨어 장치 또는 모듈(유닛)로 마련될 수도 있다.Hereinafter, the thermal image-based object tracking apparatus 300 will be described. The thermal image-based object tracking apparatus 300 according to an embodiment of the present invention corresponds to the server 200 of the object monitoring system described above and may include at least one of the image processing server 220 and the data server 230 May be implemented as separate servers, devices or modules (units) that include the same or two server functions. However, the present invention is not limited thereto and may be provided as a separate hardware device or module communicatively connected to the user terminal 30 or the server 200.

도 3은 본원의 일 실시예에 따른 열화상 영상 기반의 슈퍼픽셀을 활용한 객체 추적 장치의 구성을 도시한 도면이다.FIG. 3 is a diagram illustrating a configuration of an object tracking apparatus using a super-pixel based on a thermal image according to an embodiment of the present invention.

도 3을 참조하면, 객체 추적 장치(300)는 영상 수집부(310), 영상 제어부(320), 세그먼트 제어부(330) 및 연산부(340)를 포함할 수 있다. 다만, 도 3에 도시된 객체 추적 장치(300)는 본원의 하나의 구현 예에 불과하며, 도 3에 도시된 구성 요소들을 기초로 하여 여러 형태로 변형이 가능함은 본원의 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 예를 들어, 구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.3, the object tracking apparatus 300 may include an image collection unit 310, an image control unit 320, a segment control unit 330, and an operation unit 340. It should be noted that the object tracking apparatus 300 shown in FIG. 3 is only one embodiment of the present invention, and can be modified into various forms based on the components shown in FIG. 3. In the technical field to which the embodiments of the present invention belong, Those skilled in the art will understand the present invention. For example, the components and functions provided within the components may be combined into a smaller number of components or further separated into additional components.

영상 수집부(310)는 프레임별 열화상 영상을 수집할 수 있다. 상기 열화상 영상은 상술한 열화상 촬영부(110)에서 촬영된 영상일 수 있다. 영상 수집부(310)는 상기 열화상 촬영부(110)로부터 서버(200)로 전송된 열화상 영상을 프레임별로 구분하여 수집할 수 있다. 열화상 영상은 적어도 하나의 객체에 대한 열화상 이미지를 포함할 수 있다. 예를 들어, 객체는 소, 돼지 등의 대가축을 포함할 수 있다. The image collecting unit 310 may collect the thermal image for each frame. The thermal image may be an image photographed by the thermal imaging unit 110 described above. The image collecting unit 310 can collect the thermal image transmitted from the thermal image radiographing unit 110 to the server 200 by frame. The thermal image may comprise an infrared image for at least one object. For example, an object may include a major axis such as a cow, a pig, and the like.

본원의 일 실시예에 따르면, 영상 수집부(310)는 열화상 촬영부(110)에서 촬영된 열화상 영상을 획득할 수 있다. 객체의 열화상 영상은 기설정된 주기(예를 들어, 1초)마다 영상 수집부(310)로 전송될 수 있다. 예시적으로, 영상 수집부(310)는 RF 통신 또는 지그비(zigbee)통신을 이용하여 열화상 영상을 획득할 수 있다.According to one embodiment of the present invention, the image capturing unit 310 can acquire a thermal image captured by the thermal image capturing unit 110. The thermal image of the object may be transmitted to the image collection unit 310 every predetermined period (for example, 1 second). Illustratively, the image acquisition unit 310 may acquire thermographic images using RF communication or zigbee communication.

영상 수집부(310)는 객체를 위에서 아래방향으로 바라보는 촬영 방법인 Top-down view를 적용하여 촬영한 열화상 영상을 획득할 수 있다. 객체 추적 장치(300)는 Top-down view 방식으로 촬영된 열화상 영상을 수신하여 활용함으로써, 측면 또는 정면에서 촬영된 영상을 활용하는 경우에 비하여 후술하는 슈퍼픽셀을 이용한 객체 인식의 효과를 더욱 향상시킬 수 있다.The image collecting unit 310 may acquire a thermal image photographed by applying a top-down view, which is a photographing method of looking up the object from top to bottom. The object tracking device 300 receives and utilizes a thermal image photographed by a top-down view method, thereby improving the effect of object recognition using the super-pixel described later, .

영상 제어부(320)는 열화상 영상을 세그먼트 단위의 복수의 슈퍼픽셀로 분할할 수 있다. 예를 들어, 영상 제어부(320)는 Simple Linear Iterative Clustering(SLIC) 알고리즘에 기초하여 슈퍼픽셀 분할을 수행할 수 있다. 슈퍼픽셀이란, 원영상(본원에서는 열화상 영상이 원영상일 수 있다)에서 특성이 비슷한 화소(픽셀)들을 묶음으로 표현한 것으로, 원영상을 특징이 비슷한 작은 균일영역으로 분할하고, 작은 균일영역들을 그룹화 하여 영상을 처리하기 위한 기본 단위로 할 수 있다. 또한, 세그먼트는 분할된 한 단위를 의미하는 것으로서, 슈퍼픽셀과 동일하거나 슈퍼픽셀에 대응하는 조각을 의미한다. 각 슈퍼픽셀에는 슈퍼픽셀을 식별하기 위한 식별자(index)가 부여될 수 있다.The image control unit 320 may divide the thermal image into a plurality of super pixels in a segment unit. For example, the image controller 320 may perform super pixel division based on a Simple Linear Iterative Clustering (SLIC) algorithm. A superpixel is a bundle of pixels (pixels) having similar characteristics in the original image (in this case, the thermal image can be an original image). The superpixel divides the original image into small uniform regions having similar characteristics, And can be grouped into a basic unit for processing an image. In addition, a segment means a divided unit, which means the same as a superpixel or corresponds to a superpixel. Each super-pixel may be given an index for identifying the super-pixel.

영상 제어부(320)는 열화상 영상의 각 화소의 유사 특성을 고려하여 밀집성, 경계일치도, 과소분할의 최소화, 균일성 중 적어도 하나의 특성에 기초하여 열화상 영상을 슈퍼픽셀로 분할할 수 있다. 예를 들어, 유사 특성은 각 화소의 컬럭 벡터(RGB, gray 특성 등), 위치값 등을 포함할 수 있다. 밀집성은 슈퍼픽셀의 모양(외형)이 서로 얼마나 닮은꼴인지 나타내는 특성일 수 있다. 또한, 경계일치도는 슈퍼픽셀과 원영상에 있는 물체 경계와의 일치도를 표시하는 특성일 수 있다. 슈퍼픽셀의 경계와 원영상에 있는 경계가 일치하지 않으면 슈퍼픽셀로부터 영상분할 후 물체를 인식할 때 정확한 경계를 검출할 수 없어 분할 후의 영상처리과정에 큰 영향을 미치게 된다. 또한, 과소분할의 최소화 특성은 먼저 슈퍼픽셀을 어떠한 반복적인 알고리즘으로 구현할 때, 알고리즘의 마지막 단계에서, 어느 슈퍼픽셀에도 속하지 않는 화소들이 존재하게 된다. 과소분할의 최소화 특성은 이런 화소들을 최소화되도록 하는 특성이며, 상기 슈퍼픽셀에 속하지 않는 화소들은 후처리로 인접한 슈퍼픽셀에 할당될 수 있다. 또한, 균일성은 슈퍼픽셀 내의 화소간 유사도를 나타내는 특성일 수 있다. 상기 화소간 유사도는 영상처리 기법 분야에서 통상적으로 활용되는 유사도 연산 방법을 통해 연산될 수 있으므로, 구체적인 설명은 생략한다.The image controller 320 may divide the thermal image into super pixels based on at least one characteristic of density, boundary agreement, minimization of under-division, and uniformity in consideration of similar characteristics of each pixel of the thermal image. For example, the similar characteristic may include a color vector (RGB, gray characteristic, etc.) of each pixel, a position value, and the like. Clustering can be a characteristic of how super-pixel shapes (appearance) resemble each other. In addition, the boundary match degree may be a characteristic indicating the degree of matching between the super pixel and the object boundary in the original image. If the boundaries between the super-pixel boundary and the original image do not match, it is not possible to detect the correct boundary when recognizing the object after the image segmentation from the super-pixel, which greatly affects the image processing process after the division. In addition, when the superpixel is implemented with a certain iterative algorithm, the pixels of the superpixel are not included in the last step of the algorithm. The minimization characteristic of the subdivision is a characteristic that minimizes such pixels, and the pixels not belonging to the superpixel can be assigned to the adjacent superpixel by post-processing. In addition, the uniformity may be a characteristic indicating the degree of similarity between pixels in the super pixel. The similarity between pixels can be calculated through a similarity calculation method that is commonly used in the field of image processing techniques, and thus a detailed description thereof will be omitted.

세그먼트 제어부(330)는 기준 프레임의 세그먼트 중 객체에 대응하는 세그먼트를 식별하는 라벨을 부여할 수 있다. 본원에서의 객체는 본 객체 추적 장치를 통해 추적할 대상 객체를 의미할 수 있다. 또한, 기준 프레임은 상기 객체가 표시된 복수의 프레임중 하나의 프레임으로서, 객체의 이동을 추적하기 전의 프레임(예를 들어, t-1번째 프레임)을 의미할 수 있다. 또한, 객체는 상술한 가축을 포함할 수 있으며, 후술하는 설명에서의 객체는 예시적으로 소의 이동을 추적하는 것을 중심으로 설명하도록 한다.The segment control unit 330 may assign a label identifying the segment corresponding to the object among the segments of the reference frame. The object herein may refer to a target object to be tracked through the object tracking device. Further, the reference frame may be one of a plurality of frames in which the object is displayed, and may refer to a frame (e.g., a (t-1) th frame) before tracking the movement of the object. In addition, the object may include the animal described above, and the object in the following description will exemplarily describe tracking the movement of the cattle.

도 4는 본원의 일 실시예에 따른, 열화상 영상의 슈퍼픽셀 분할 및 라벨링의 예를 도시한 도면이다.4 is a diagram illustrating an example of superpixel segmentation and labeling of thermographic images, according to one embodiment of the present invention.

도 4를 참조하면, 영상 제어부(320)는 영상 수집부(310)에서 수집된 열화상 영상의 프레임을 세그먼트 단위의 슈퍼픽셀로 분할할 수 있다. 세그먼트 제어부(330)는 추적하고자 하는 객체에 대응하는 세그먼트에 라벨을 부여할 수 있다. 구체적으로, 도 4 (a)를 참조하면, 영상 제어부(320)는 기준 프레임인 a-1프레임(이하에서는 기준 프레임을 a-1프레임이라 한다) 상에서 추척할 대상 객체(x)를 사용자 입력에 기초하여 인식할 수 있고, 도 4 (b)를 참조하면, 영상 제어부(320)는 a-1프레임의 열화상 영상을 복수의 세그먼트 단위의 슈퍼픽셀로 분할할 수 있다. 이때, 세그먼트(1)는 상술한 균일 영역으로 이해될 수 있다. 세그먼트 제어부(330)는 객체(x)에 대응하는 세그먼트(2)(3)(4(5)에 도 4(c)에 도시된 바와 같이, 라벨(예를 들어, 붉은색 표시)을 부여함으로써, 사용자가 열화상 영상을 통해 추적 대상인 객체(x)를 용이하게 식별할 수 있도록 할 수 있다. 열화상 영상의 픽셀의 폐색은 객체(x)의 움직임, 행동 등에 의해 빈번하게 발생될 수 있다. 또한, 객체(x)가 움직임에 따라 프레임별 열화상 영상에서 객체(x)의 종횡비(aspect ratio)가 매칭되지 않을 수도 있다. 또한, 열화상 영상에서의 다수의 객체는 그 색상이 유사하게 디스플레이 되므로 구분하기가 어려운 문제가 있다. 이에, 세그먼트 제어부(330)는 객체(x)가 주변 객체(다른 소)들과 구분될 수 있도록, 슈퍼픽셀의 세그먼트 단위로 주변 객체와 색을 달리하여 객체(x)에 대응하는 세그먼트(2)(3)(4)(4)에 라벨을 부여할 수 있다.Referring to FIG. 4, the image controller 320 may divide the frame of the thermal image collected by the image collection unit 310 into super-pixels of a segment unit. The segment control unit 330 may assign a label to a segment corresponding to an object to be tracked. 4A, the image control unit 320 assigns a target object x to be traced on a-1 frame (hereinafter referred to as a-1 frame) as a reference frame to a user input Referring to FIG. 4B, the image controller 320 may divide the thermal image of the a-1 frame into super-pixels of a plurality of segment units. At this time, the segment (1) can be understood as the uniform region described above. The segment control unit 330 may assign a label (for example, a red color) to segments 2 (3) and 4 (5) corresponding to the object x , So that the user can easily identify the object x to be tracked through the thermal image. The occlusion of the pixels of the thermal image can be frequently caused by the motion, the action, and the like of the object x. In addition, the aspect ratio of the object x may not be matched in the frame-by-frame thermal image as the object x moves. Also, a plurality of objects in the thermal image may have a color similar to that of the display The segment control unit 330 changes the color of surrounding objects in a segment unit of the super pixel so that the object x can be distinguished from neighboring objects (2), (3), (4), and (4) corresponding to x can be given a label.

도 5는 본원의 일 실시예에 따른 열화상 영상의 다음 프레임에서 객체를 추적하여 라벨을 부여한 예를 도시한 도면이다.FIG. 5 is a diagram illustrating an example in which an object is traced and a label is assigned in a next frame of a thermal image according to an exemplary embodiment of the present invention.

도 5(a)는 상술한 a-1프레임에서 객체(x)에 라벨을 도시한 도면이다. 도 5(b)는 영상 제어부(320)에 의해 다음 프레임인 a프레임(이하에서는 다음 프레임을 a프레임이라 한다)의 열화상 영상이 슈퍼픽셀로 분할된 예를 도시한다. 본 명세서에 있어서 다음 프레임이란 객체가 이동한 상태의 열화상 영상의 프레임을 의미한다. 도 5(a) 및 (b)를 참조하면, a-1프레임(도 5(a))에서의 객체(x)가 a프레임(도 5(b))에서 이동된 것을 확인할 수 있다. 객체 추적 장치(300)는 a-1프레임의 열화상 영상과 a프레임의 열화상 영상간의 비용함수를 연산하여, 이동된 객체(x)에 대응하는 세그먼트에 라벨을 a프레임에서 부여함으로써, 프레임의 시계열적인 변화에서의 객체(x)의 이동(변화)을 추적할 수 있다. 5 (a) is a diagram showing a label of an object (x) in the above-mentioned a-1 frame. 5B shows an example in which the thermal image of the a frame (hereinafter referred to as a frame) of the next frame by the image control unit 320 is divided into super pixels. In the present specification, the next frame means a frame of a thermal image in a state in which an object is moved. 5A and 5B, it is confirmed that the object x in the a-1 frame (FIG. 5A) is moved in the a frame (FIG. 5B). The object tracking apparatus 300 calculates a cost function between the thermal image of the a-1 frame and the thermal image of the a frame to give a label to the a frame corresponding to the moved object x, The movement (change) of the object (x) in a time series change can be tracked.

연산부(340)는 다음 프레임의 세그먼트와 객체에 대응하는 세그먼트 간의 비용함수를 연산할 수 있다. 보다 구체적으로, 연산부(340)는 다음 프레임의 전체 슈퍼픽셀 세그먼트와 이전 프레임(기준 프레임)에서의 객체에 대응하는 슈퍼픽셀 세그먼트 간의 비용함수를 연산할 수 있다. 상기 비용함수는 두 프레임의 세그먼트간 공간 접근성(거리 속성) 및 세그먼트 외관의 유사성(색상 속성)을 고려한 함수이며, 비용함수를 통해 다음 프레임에서의 세그먼트의 라벨 부여(또는 라벨의 제거)가 보다 정교하게 수행될 수 있다.The operation unit 340 can calculate the cost function between the segment of the next frame and the segment corresponding to the object. More specifically, the operation unit 340 can calculate the cost function between the entire superpixel segment of the next frame and the superpixel segment corresponding to the object in the previous frame (reference frame). The cost function is a function considering the inter-segment space accessibility (distance attribute) and the segment appearance similarity (color attribute) between two frames, and the labeling (or label elimination) of the segment in the next frame through the cost function is more accurate . ≪ / RTI >

구체적으로, 연산부(340)는 다음 프레임(a프레임)의 세그먼트와 기준 프레임(a-1프레임)의 객체에 대응하는 세그먼트(2)(3)(4)(5) 간의 색상 속성 및 다음 프레임의 세그먼트의 중심 위치 및 기준 프레임의 객체에 대응하는 세그먼트의 중심 위치와 연계된 위치 속성에 기초하여 상기 비용함수를 연산할 수 있다. 상기 색상 속성은 온도에 따른 열화상 영상에서의 색상 벡터 성분으로서, 예를 들어, RGB, gray 값 등을 포함할 수 있다. 또한, 위치 속성은 예를 들어, 슈퍼픽셀 세그먼트 사이의 거리를 의미할 수 있다. Specifically, the arithmetic operation unit 340 calculates the color attribute between the segment of the next frame (a frame) and the segment 2, 3, 4, 5 corresponding to the object of the reference frame (a-1 frame) The cost function can be calculated based on the center position of the segment and the positional attribute associated with the center position of the segment corresponding to the object of the reference frame. The color attributes may include, for example, RGB, gray values, and the like as color vector components in the thermal image according to the temperature. In addition, the location attribute may mean, for example, the distance between superpixel segments.

본원의 일 실시예에 따르면, 연산부(340)는 다음 프레임(a프레임)의 모든 세그먼트와 기준 프레임(a-1프레임)의 객체에 대응하는 각 세그먼트(2)(3)(4)(5) 마다의 비용함수 연산이 완료될 때까지 비용함수의 연산을 반복할 수 있다.According to one embodiment of the present application, the calculation unit 340 calculates the number of segments 2, 3, 4, 5 corresponding to all the segments of the next frame (a frame) and the object of the reference frame (a- The calculation of the cost function can be repeated until the cost function calculation for each time is completed.

본원의 일 실시예에 따르면, 세그먼트 제어부(330)는 다음 프레임에서 상기 비용함수의 연산값이 최소인 세그먼트에 라벨을 부여할 수 있다. 제그먼트 제어부(330)는 기준 프레임(a-1프레임)의 객체에 대응하는 각 세그먼트(2)(3)(4)(5) 마다의 비용함수의 연산값이 최소인 슈퍼픽셀 세그먼트를 다음 프레임에서 결정(매칭)하고 라벨을 부여할 수 있다. 구체적으로, 도 5(a) 및 (b)를 참조하면, 연산부(340)는 다음 프레임(a프레임)의 모든 세그먼트와 기준 프레임(a-1)의 객체(x)에 대응하는 복수의 세그먼트(2)(3)(4)(5) 각각 사이의 비용함수를 연산할 수 있다. 실시예에 따라서는 다음 프레임의 모든 세그먼트가 아닌, 다음 프레임에서 세그먼트의 색에 기초하여 구분되는 객체에 대응하는 세그먼트(예를 들어, 배경을 제외한 부분)와 이전 프레임의 객체(x)에 대응하는 모든 세그먼트 각각과의 비용함수가 연산될 수도 있다.According to an embodiment of the present invention, the segment control unit 330 may label a segment having the smallest computed value of the cost function in the next frame. The jag control section 330 sets the super pixel segment whose calculation value of the cost function is minimum for each segment 2, 3, 4, 5 corresponding to the object of the reference frame (a-1 frame) (Matching) and giving a label. 5 (a) and 5 (b), the operation unit 340 includes a plurality of segments corresponding to all the segments of the next frame (a frame) and the object x of the reference frame (a-1) 2), (3), (4) and (5). Depending on the embodiment, not all of the segments of the next frame, but a segment (e.g., a portion excluding the background) corresponding to an object that is distinguished based on the color of the segment in the next frame and a segment A cost function with each of all the segments may be calculated.

이후,도 5(b)에 도시된 바와 같이 세그먼트 제어부(330)는 이전 프레임에서의 객체(x)의 복수의 세그먼트(2)(3)(4)(5)에 대응하는 세그먼트 별 비용함수 연산값 중 최소값을 가지는 다음 프레임의 슈퍼픽셀 세그먼트(6)(7)(8)(9)를 식별할 수 있고, 도 5(c)에 도시된 바와 같이, 다음 프레임의 슈퍼픽셀 세그먼트(6)(7)(8)(9)에 라벨을 부여할 수 있다. 도 5(c)를 참조하면, 세그먼트 제어부(330)는 이전 프레임에서 객체(x)에 대응하는 세그먼트와의 비용함수가 최소값인 다음 프레임의 세그먼트에 라벨을 부여할 수 있다. 예시적으로, 세그먼트 제어부(330)는 이전 프레임의 세그먼트(2)와 비용함수가 연산되어 최소값을 갖는 다음 프레임의 세그먼트(6)에 라벨을 부여할 수 있고, 세그먼트(3)(4)(5) 세그먼트와 각각 비용함수가 연산되어 최소값을 갖는 다음 프레임의 세그먼트(7)(8)(9)에도 라벨을 부여할 수 있다.5 (b), the segment control unit 330 calculates a cost function for each segment (2), (3), (4) and (5) of the object x in the previous frame, (7), (8) and (9) of the next frame having the smallest value among the values of the super-pixel segments 6 7) (8) Labeling can be given to (9). Referring to FIG. 5 (c), the segment control unit 330 may label the segment of the next frame having the minimum cost function with the segment corresponding to the object (x) in the previous frame. Illustratively, the segment control unit 330 may label the segment 6 of the next frame with the smallest value by computing the cost function with segment 2 of the previous frame, and segments 3, 4, 5 ) Segment and the cost function, respectively, so that the segments 7, 8, and 9 of the next frame having the minimum value can be also labeled.

본원의 일 실시예에 따르면, 세그먼트 제어부(330)는 비용함수의 연산값이 최소인 세그먼트를 수학식 1에 기초하여 결정할 수 있다.According to one embodiment of the present invention, the segment control unit 330 can determine a segment having the smallest calculated value of the cost function based on Equation (1).

[수학식 1][Equation 1]

Figure 112017093313810-pat00001
Figure 112017093313810-pat00001

여기서,

Figure 112017093313810-pat00002
는 다음 프레임의 세그먼트와 기준 프레임의 객체에 대응하는 세그먼트 간의 비용함수이고, C는 프레임별 상기 세그먼트의 평균 색(라벨) 벡터이고, X는 프레임별 각 세그먼트의 중심 위치값이고, j(t)는 다음 프레임(t)의 전체 슈퍼픽셀 세그먼트이고, i(t)는 비용함수의 연산값이 최소인 다음 프레임의 슈퍼픽셀 세그먼트를 의미한다. 결과적으로 도 5(d)를 참조하면 비용함수 연산에 따른 최소값에 대응하는 다음 프레임에서의 세그먼트(6)(7)(8)(9)에 라벨이 부여되어 객체(x)가 추적된 다음 프레임의 열화상 영상을 확인할 수 있다.here,
Figure 112017093313810-pat00002
Where C is a mean color (label) vector of the segment for each frame, X is the center position value of each segment for each frame, and j (t) is the center position value of each segment for each frame. Is the entire super pixel segment of the next frame t, and i (t) is the super pixel segment of the next frame in which the calculated value of the cost function is the smallest. As a result, referring to FIG. 5 (d), the segments 6, 7, 8, and 9 in the next frame corresponding to the minimum value according to the cost function calculation are labeled, Can be confirmed.

상술한 예에 따르면, 이전 프레임의 세그먼트(2)(3)(4)(5)와 비용함수를 연산하여 최소값을 갖는 다음 프레임의 세그먼트(6)(7)(8(9)의 개수가 동일하게 매칭된 것으로 가정하였다. 그러나, 실제 객체(x)의 추적에서는 다음 프레임에서의 슈퍼픽셀 분할시의 세그먼트의 모양 또는 개수의 변화, 객체의 움직임, 다른 객체와의 겹침 등으로 인해 이전 프레임의 객체에 대응하는 세그먼트의 개수와 다음 프레임의 비용함수 연산값이 최소인 세그먼트의 개수가 일치하지 않을 수도 있다. 또한, 상술한 요인들에 의해 프레임이 변화됨에 따라 라벨이 부여되는 세그먼트의 수가 점차 감소할 수도 있다.According to the example described above, the cost function is calculated with the segments 2, 3, 4 and 5 of the previous frame so that the number of segments 6, 7, 8 (9) However, in the tracking of the actual object (x), the object of the previous frame due to the change in shape or number of the segment at the time of super pixel division in the next frame, movement of the object, overlapping with another object, The number of segments corresponding to the minimum number of segments corresponding to the next frame may not coincide with the number of segments having the smallest cost function calculation value of the next frame. It is possible.

도 6은 본원의 일 실시예에 따른, 객체 추적 방법의 라벨 보충의 예를 도시한 도면이다. 이하에서는, 앞서 설명한 객체 추적 방법에 따라 다음 프레임에서 객체의 모든 슈퍼픽셀 세그먼트에 라벨이 매칭되지 않은 경우, 이를 보충하는 방법에 대하여 설명한다.6 is a diagram illustrating an example of label supplementation of an object tracking method according to an embodiment of the present invention. Hereinafter, a description will be given of a method of supplementing the super-pixel segments of an object in a case where labels are not matched to the object in the next frame according to the object tracking method described above.

예시적으로, 도 6(a)에 도시된 바와 같이, 다음 프레임(a)의 객체(x)에 대응하는 세그먼트 중 라벨이 부여된 세그먼트가 1개인 경우, 영상 제어부(320)는 다음 프레임의 열화상 영상을 도 6(b)에 도시된 바와 같이 이잔화 영상으로 변환할 수 있다. 이후, 세그먼트 제어부(330)는 이진화 영상에 기초하여 라벨이 부여된 세그먼트와 유사특성을 갖는 복수의 세그먼트를 검출하여 라벨 부여 대상을 결정할 수 있다. 예시적으로, 세그먼트 제어부(330)는 밀집성, 경계일치도, 과소분할의 최소화, 균일성 중 적어도 하나의 특성에 기초한 픽셀 연결 요소 분석에 기초하여 라벨이 부여된 세그먼트와 유사특성을 갖는 복수의 세그먼트를 검출할 수 있다. 예를 들어, 세그먼트 제어부(330)는 connect component analysis(CCA) 알고리즘을 수행하여, 라벨이 부여된 세그먼트와 유사특성을 갖는 복수의 세그먼트 영역을 결정할 수 있다. 다음으로, 세그먼트 제어부(330)는 상기 결정된 복수의 세그먼트에 대응하는 슈퍼픽셀의 식별자를 식별할 수 있다. 또한, 세그먼트 제어부(330)는 도 6(c)에 도시된 바와 같이 검출된 복수의 세그먼트에 라벨이 부여되지 않은 상태이면, 상기 식별된 슈퍼픽셀의 세그먼트에 라벨을 보충할 수 있다. 또한, 세그먼트 제어부(330)는 기존에 라벨이 부여된 슈퍼픽셀과 라벨이 보충된 슈퍼픽셀의 식별자를 취합하고, 대상 객체(x)에 대응하는 모든 슈퍼픽셀 세그먼트에 라벨이 부여된 것으로 인식할 수 있다.Illustratively, as shown in Fig. 6 (a), when there is one labeled segment among the segments corresponding to the object x in the next frame (a), the image control unit 320 determines that the next frame It is possible to convert the image image into the residual image as shown in Fig. 6 (b). Thereafter, the segment control unit 330 can determine a labeling target by detecting a plurality of segments having similar characteristics to the labeled segments based on the binarized image. Illustratively, the segment control 330 includes a plurality of segments having similarity to the labeled segment based on pixel link element analysis based on at least one of the following properties: tightness, border agreement, minimization of under-segmentation, and uniformity Can be detected. For example, the segment control unit 330 may perform a connect component analysis (CCA) algorithm to determine a plurality of segment regions having similar characteristics to the labeled segments. Next, the segment control unit 330 can identify the identifier of the super pixel corresponding to the determined plurality of segments. 6 (c), the segment control unit 330 may supplement the segment of the identified super pixel with a label if the detected plurality of segments are not labeled. In addition, the segment control unit 330 collects an identifier of a superpixel to which a label is superimposed and an identifier of a superpixel to which a label has been supplemented, and recognizes that all superpixel segments corresponding to the target object (x) have.

도 7은 본원의 일 실시예에 따른 객체 추적 방법의 라벨 보정의 예를 도시한 도면이다. 앞선 설명에 따르면, 이전 프레임의 객체에 대응하는 세그먼트와 다음 프레임의 세그먼트와의 비용함수가 연산되어 최소값에 대응하는 다음 프레임의 세그먼트에 라벨이 부여될 수 있다. 이와 같이 비용함수의 최소값에 기초한 라벨의 부여는 함수의 연산값을 통해 라벨을 부여할 세그먼트를 판단하기 때문에, 비용함수의 연산값이 최소값이면, 다음 프레임의 객체(x)에 대응하는 세그먼트가 아니더라도 비용함수의 최소값이 연산된 이유로 라벨이 잘못 부여될 수 있다. 도 7(a)에 도시된 바와 같이, 추적 대상인 객체(x)에 대응하는 세그먼트(6)에 라벨이 부여된 경우 외에도 다른 객체(y)의 세그먼트(7)에도 비용함수의 연산값이 최소값이면 라벨이 부여될 수 있다.7 is a diagram illustrating an example of label correction of an object tracking method according to an embodiment of the present invention. According to the foregoing description, the cost function of the segment corresponding to the object of the previous frame and the segment of the next frame can be computed and the segment of the next frame corresponding to the minimum value can be labeled. In this manner, the labeling based on the minimum value of the cost function determines the segment to which the label is to be assigned through the operation value of the function. Therefore, if the calculated value of the cost function is the minimum value, The label may be misapplied for the reason that the minimum value of the cost function is calculated. As shown in FIG. 7 (a), in addition to the case where a label is assigned to the segment 6 corresponding to the object x to be tracked, the segment 7 of the other object y also has a minimum value A label may be given.

본 객체 추적 장치(300)는 상술한 바와 같이 다음 프레임의 세그먼트 중 라벨이 잘못 부여된 경우를 보정할 수 있다. 구체적으로, 연산부(340)는 다음 프레임에서 라벨이 부여된 복수의 세그먼트 상호간 이격거리를 연산할 수 있다. 세그먼트 상호간 이격거리 D는 ∥Xm - Xn∥에 기초하여 연산될 수 있다. 여기서 m, n은 이격거리가 연산되는 두 세그먼트의 라벨 정보이다. 또 세그먼트간 이격거리는 슈퍼픽실 세그먼트의 중심점간의 거리일 수 있다. 즉, 도 7(a)를 참조하면, 추적 대상 객체(x)의 세그먼트(6)와 다른 객체(y)의 세그먼트(7) 간의 이격거리가 연산될 수 있다. 이후, 세그먼트 제어부(330)는 상기 세그먼트간 이격거리가 미리 설정된 거리 이상인 경우, 상대적으로 크기가 작은 세그먼트의 라벨을 제거할 수 있다. 예시적으로, 상기 비교되는 두 세그먼트 중 상대적으로 크기(면적)가 작은 슈퍼픽셀 세그먼트의 라벨이 제거될 수 있다. 도 7(b)를 참조하면 연산된 이격거리가 미리 설정된 거리 이상임에 따라, 다른 객체(y)의 세그먼트(7)가 삭제되고 추적 대상 객체(x)의 세그먼트(6)가 남은 것을 확인할 수 있다.As described above, the object tracking apparatus 300 can correct a case where a label among the segments of the next frame is erroneously given. Specifically, the operation unit 340 can calculate a distance between the plurality of segments labeled with the next frame. The inter-segment distance D can be computed based on ∥X m -X n ∥. Where m, n is the label information of the two segments for which the separation distance is computed. The distance between the segments may be the distance between the center points of the super-pixil segment. 7A, the distance between the segment 6 of the object x to be tracked and the segment 7 of another object y can be calculated. Thereafter, the segment control unit 330 may remove the label of a relatively small segment when the segment distance is equal to or greater than a preset distance. Illustratively, the label of a superpixel segment having a relatively small size (area) of the compared two segments can be removed. Referring to FIG. 7 (b), it can be confirmed that the segment 7 of another object y is deleted and the segment 6 of the object x to be tracked remains in accordance with the calculated distance being equal to or greater than a preset distance .

도 8은 본원의 일실시예에 따른 객체 추적 방법의 흐름을 도시한 도면이다.8 is a flowchart illustrating an object tracking method according to an embodiment of the present invention.

도 8에 도시된 객체 추적 방법은 앞선 도1 내지 도 7을 통해 설명된 객체 추적 장치(300)에 의하여 수행될 수 있다. 따라서 이하 생략된 내용이라고 하더라도 도 1 내지 도 7을 통해 객체 추적 장치(300)에 대하여 설명된 내용은 도 8에도 동일하게 적용될 수 있다.The object tracking method shown in FIG. 8 may be performed by the object tracking apparatus 300 described with reference to FIGS. 1 to 7. FIG. Therefore, even if omitted below, the description of the object tracking apparatus 300 through FIGS. 1 to 7 can be similarly applied to FIG.

도 8을 참조하면, 단계 S810에서, 영상 수집부(310)는 프레임별 열화상 영상을 수집할 수 있다. 단계 S820에서, 영상 제어부(320)는 열화상 영상을 세그먼트 단위의 복수의 슈퍼픽셀로 분할할 수 있다. 단계 S830에서, 세그먼트 제어부(330)는 기준 프레임의 세그먼트 중 객체에 대응하는 슈퍼픽셀 세그먼트를 식별하는 라벨을 부여할 수 있다.Referring to FIG. 8, in step S810, the image collection unit 310 may collect thermal image images for respective frames. In step S820, the image control unit 320 may divide the thermal image into a plurality of super pixels in a segment unit. In step S830, the segment control unit 330 may assign a label identifying the super pixel segment corresponding to the object among the segments of the reference frame.

단계 S840에서, 연산부(340)는 다음 프레임의 세그먼트와 기준 프레임의 객체에 대응하는 적어도 하나의 세그먼트 간의 비용함수를 연산할 수 있다. 연산부(S340)는 다음 프레임(a프레임)의 세그먼트와 기준 프레임(a-1프레임)의 객체에 대응하는 세그먼트(2)(3)(4)(5) 간의 색상 속성 및 다음 프레임의 세그먼트의 중심 위치와 기준 프레임의 객체에 대응하는 세그먼트의 중심 위치와 연계된 위치 속성에 기초하여 상기 비용함수를 연산할 수 있다. 연산부(340)는 기준 프레임에서 객체(x)에 대응하는 세그먼트 중 하나인 세그먼트(2)와 다음 프레임의 모든 세그먼트간의 비용함수가 연산할 수 있다. 또한, 연산부(340)는 상술한 연산을 객체(x)에 대응하는 모든 세그먼트 각각과 다음 프레임의 모든 세그먼트와의 비용함수가 연산되도록 반복할 수 있다.In step S840, the operation unit 340 may calculate a cost function between a segment of the next frame and at least one segment corresponding to the object of the reference frame. The calculation unit S340 calculates the color attribute between the segment of the next frame (a frame) and the segment 2, 3, 4, 5 corresponding to the object of the reference frame (a-1 frame) The cost function can be calculated based on the position and the positional attribute associated with the center position of the segment corresponding to the object of the reference frame. The operation unit 340 can calculate the cost function between the segment 2 which is one of the segments corresponding to the object x in the reference frame and all the segments of the next frame. In addition, the operation unit 340 may repeat the above-described operation so that the cost function of each of all segments corresponding to the object x and all the segments of the next frame are calculated.

단계 S850에서, 세그먼트 제어부(330)는 이전 프레임에서 객체(x)에 대응하는 세그먼트 간의 비용함수가 최소값인 다음 프레임의 상기 객체에 대응하는 세그먼트에 라벨을 부여할 수 있다.In step S850, the segment control unit 330 may label the segment corresponding to the object of the next frame whose cost function between the segments corresponding to the object (x) in the previous frame is the minimum value.

도 9는 본원의 일 실시예에 따른, 객체 추적 방법의 라벨 보충의 흐름을 도시한 도면이다.9 is a diagram illustrating a flow of label replenishment of an object tracking method according to an embodiment of the present invention.

단계 S851에서, 다음 프레임(a)의 슈퍼픽셀 세그먼트 중 라벨이 부여된 세그먼트의 개수를 확인할 수 있다. 라벨이 부여된 세그먼트가 1개인 경우, 단계 S852에서, 영상 제어부(320)는 다음 프레임의 열화상 영상을 이잔화 영상으로 변환할 수 있다.In step S851, the number of the labeled segments of the super pixel segment of the next frame (a) can be confirmed. If there is one labeled segment, in step S852, the image control unit 320 can convert the thermal image of the next frame into the non-image.

단계 S853에서, 세그먼트 제어부(330)는 이진화 영상에 기초하여 라벨이 부여된 세그먼트와 유사특성을 갖는 복수의 세그먼트를 검출하여 라벨 부여 대상을 결정할 수 있다. 예시적으로, 세그먼트 제어부(330)는 밀집성, 경계일치도, 과소분할의 최소화, 균일성 중 적어도 하나의 특성에 기초한 픽셀 연결 요소 분석에 기초하여 라벨이 부여된 세그먼트와 유사특성을 갖는 복수의 세그먼트를 검출할 수 있다.In step S853, the segment control unit 330 can determine a labeling target by detecting a plurality of segments having similar characteristics to the segment to which the label is given based on the binarized image. Illustratively, the segment control 330 includes a plurality of segments having similarity to the labeled segment based on pixel link element analysis based on at least one of the following properties: tightness, border agreement, minimization of under-segmentation, and uniformity Can be detected.

단계 S854에서, 세그먼트 제어부(330)는 검출된 세그먼트에 라벨 부여 여부를 확인하고, 검출된 복수의 세그먼트에 라벨이 부여되지 않은 상태이면, 상기 세그먼트에 라벨을 보충할 수 있다. 또한, 기존에 부여된 라벨과 보충된 라벨을 취합하여 대상 객체(x)에 대응하는 모든 세그먼트에 라벨이 부여된 것으로 인식할 수 있다.In step S854, the segment control unit 330 confirms whether or not the label is given to the detected segment, and if the detected plural segments are not labeled, the segment can be supplemented with the label. In addition, it is possible to recognize that labels are assigned to all segments corresponding to the target object (x) by collecting labels previously assigned and replenished.

객체 추적 장치(300)는 앞서 상술한 바와 같이, 열화상 영상을 다수의 슈퍼픽셀로 분할하고 슈퍼픽셀 세그먼트 단위로 객체 인식을 수행함으로써, 비선형적 형상을 가지는 객체를 보다 정확하게 인식할 수 있다. 한편, 대가축의 추적과 관련하여 예를 들었으나, 이상 설명한 객체 추적 장치(300) 및 객체 추적 방법은 비선형적 형상을 가지고 있으며, 소정의 공간 내에서 이동하는 다수 객체의 분할 인식 및 모니터링이 필요한 모든 분야에 적용 가능할 것이다.As described above, the object tracking apparatus 300 can recognize an object having a nonlinear shape more accurately by dividing a thermal image into a plurality of superpixels and performing object recognition in units of superpixel segments. Meanwhile, although an example has been described with respect to tracking of large animals, the object tracking device 300 and the object tracking method described above have a nonlinear shape, and it is necessary to recognize and monitor the division of a plurality of objects moving within a predetermined space It will be applicable to all fields.

본원의 일 실시 예에 따른 객체 추적 방법은, 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. The object tracking method according to one embodiment of the present invention can be implemented in the form of a program command that can be executed through various computer means and recorded in a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks, and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those of ordinary skill in the art that the foregoing description of the embodiments is for illustrative purposes and that those skilled in the art can easily modify the invention without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included within the scope of the present invention.

10: 네트워크 20: 데이터베이스
30: 사용자 단말 100: 수집 장치
110: 열화상 촬영부 120: 광각 촬영부
130: 환경 감지부 131: 온습도 측정 유닛
132: 이산화탄소 측정 유닛 133: 풍향 풍속 측정 유닛
134: 환풍 유닛 135: 게이트웨이
140: 체온 측정 모듈 150: 식별자 통신 모듈
200: 서버 210: 모니터링 서버
220: 영상 처리 서버 230: 데이터 서버
300: 객체 추적 장치 310: 영상 수집부
320: 영상 제어부 330: 세그먼트 제어부
340: 연산부
10: Network 20: Database
30: user terminal 100: collecting device
110: Thermal image radiographing section 120: Wide angle radiographing section
130: Environmental sensing unit 131: Temperature and humidity measurement unit
132: carbon dioxide measuring unit 133: wind direction wind speed measuring unit
134: Ventilation unit 135: Gateway
140: body temperature measurement module 150: identifier communication module
200: server 210: monitoring server
220: image processing server 230: data server
300: Object tracking device 310:
320: image control unit 330: segment control unit
340:

Claims (18)

열화상 영상 기반의 슈퍼픽셀을 활용한 객체 추적 방법에 있어서,
프레임별 열화상 영상을 수집하는 단계;
상기 열화상 영상을 세그먼트 단위의 복수의 슈퍼픽셀로 분할하는 단계;
기준 프레임의 세그먼트 중 추적 대상 객체에 대응하는 세그먼트를 식별하는 라벨을 부여하는 단계;
다음 프레임의 세그먼트와 상기 추적 대상 객체에 대응하는 상기 세그먼트 간의 비용함수를 연산하는 단계; 및
상기 비용함수의 연산값에 기초하여 다음 프레임의 상기 추적 대상 객체에 대응하는 세그먼트에 라벨을 부여하는 단계,
를 포함하고,
상기 다음 프레임의 상기 추적 대상 객체에 대응하는 모든 세그먼트에 라벨이 부여되지 않고, 라벨이 부여된 세그먼트가 1개인 경우,
상기 다음 프레임의 열화상 영상을 이진화 영상으로 변환하는 단계;
상기 이진화 영상에 대하여 픽셀 연결 요소 분석(CCA)을 수행하여 상기 라벨이 부여된 1개의 세그먼트와 유사 특성을 갖는 상기 추적 대상 객체와 연계된 복수의 세그먼트를 검출하여 라벨 부여 대상을 결정하는 단계; 및
검출된 상기 복수의 세그먼트에 상기 라벨을 보충하는 단계를 포함하고,
상기 다음 프레임에서 상기 추적 대상 객체 외의 다른 객체의 세그먼트에 상기 라벨이 부여된 경우,
상기 다음 프레임의 상기 라벨이 부여된 상기 다른 객체의 세그먼트와 상기 추적 대상 객체의 세그먼트간 이격거리를 연산하는 단계; 및
상기 이격거리가 미리 설정된 거리 이상인 경우, 상대적으로 크기가 작은 세그먼트의 라벨을 제거하는 단계를 포함하는,
객체 추적 방법.
In an object tracking method using a super-pixel based on a thermal image,
Collecting a thermal image for each frame;
Dividing the thermal image into a plurality of super pixels in a segment unit;
Providing a label identifying a segment corresponding to the object to be tracked among the segments of the reference frame;
Calculating a cost function between a segment of a next frame and the segment corresponding to the object to be tracked; And
Labeling a segment corresponding to the object to be tracked of the next frame based on the calculated value of the cost function;
Lt; / RTI >
If no label is assigned to all the segments corresponding to the object to be tracked in the next frame and there is only one segment to which the label is assigned,
Converting a thermal image of the next frame into a binary image;
Performing a CCA on the binarized image to detect a plurality of segments associated with the tracking target object having similar characteristics to the one segment to which the label is attached to determine a labeling target; And
And supplementing the label to the detected plurality of segments,
When the label is assigned to a segment of another object other than the object to be tracked in the next frame,
Calculating a distance between a segment of the another object to which the label is attached in the next frame and a segment of the object to be tracked; And
And removing the label of the relatively small segment if the spacing distance is greater than or equal to a predetermined distance.
Object tracking method.
제1항에 있어서,
상기 비용함수를 연산하는 단계는,
다음 프레임의 세그먼트와 기준 프레임의 객체에 대응하는 세그먼트 간의 색상 속성 및 다음 프레임의 세그먼트의 중심 위치와 기준 프레임의 객체에 대응하는 세그먼트의 중심 위치와 연계된 위치 속성에 기초하여 수행되는 것인, 객체 추적 방법.
The method according to claim 1,
Wherein the calculating the cost function comprises:
The color attribute between the segment of the next frame and the segment corresponding to the object of the reference frame, and the positional attribute associated with the center position of the segment of the next frame and the center position of the segment corresponding to the object of the reference frame. Tracking method.
제2항에 있어서,
상기 다음 프레임의 세그먼트에 라벨을 부여하는 단계는,
상기 비용함수의 연산값이 최소인 세그먼트에 상기 라벨을 부여하는 것인, 객체 추적 방법.
3. The method of claim 2,
Wherein labeling the segment of the next frame comprises:
And assigning the label to a segment whose computed value of the cost function is the smallest.
제3항에 있어서,
상기 비용함수의 연산값이 최소인 세그먼트는 수학식 1에 기초하여 결정되고,
[수학식 1]
Figure 112017093313810-pat00003

C는 프레임별 세그먼트의 평균 색 벡터이고, X는 프레임별 각 세그먼트의 중심 위치값이고, j(t)는 다음 프레임(t)의 전체 세그먼트이고, i(t)는 비용함수의 연산값이 최소인 다음 프레임의 세그먼트인 것인, 객체 추적 방법.
The method of claim 3,
A segment whose computed value of the cost function is minimum is determined based on Equation (1)
[Equation 1]
Figure 112017093313810-pat00003

C is the average color vector of the frame-by-frame segment, X is the center position value of each segment per frame, j (t) is the entire segment of the next frame (t) Is a segment of the next frame.
제3항에 있어서,
상기 다음 프레임의 세그먼트에 라벨을 부여하는 단계는,
상기 다음 프레임의 모든 세그먼트와 상기 기준 프레임의 상기 객체에 대응하는 복수의 세그먼트 각각의 상기 비용함수를 연산하되,
상기 객체에 대응하는 세그먼트 별 연산값 중 최소값에 대응하는 다음 프레임의 세그먼트에 상기 라벨을 부여하는 것인, 객체 추적 방법.
The method of claim 3,
Wherein labeling the segment of the next frame comprises:
Computing the cost function of each segment of the next frame and each of the plurality of segments corresponding to the object of the reference frame,
And gives the label to a segment of a next frame corresponding to a minimum value among the calculated values for each segment corresponding to the object.
삭제delete 삭제delete 제1항에 있어서,
상기 슈퍼픽셀로 분할하는 단계는,
상기 열화상 영상의 각 화소의 유사 특성을 고려하여 밀집성, 경계일치도, 과소분할의 최소화, 균일성 중 적어도 하나의 특성에 기초하여 수행되는 것인, 객체 추적 방법.
The method according to claim 1,
The step of dividing into superpixels comprises:
Is performed based on at least one of characteristics of density, boundary agreement, minimization of under-division, and uniformity in consideration of similar characteristics of each pixel of the thermal image.
열화상 영상 기반의 슈퍼픽셀을 활용한 객체 추적 장치에 있어서,
프레임별 열화상 영상을 수집하는 영상 수집부;
상기 열화상 영상을 세그먼트 단위의 복수의 슈퍼픽셀로 분할하는 영상 제어부;
기준 프레임의 세그먼트 중 추적 대상 객체에 대응하는 세그먼트를 식별하는 라벨을 부여하는 세그먼트 제어부; 및
다음 프레임의 세그먼트와 상기 추적 대상 객체에 대응하는 상기 세그먼트 간의 비용함수를 연산하는 연산부,
를 포함하되,
상기 세그먼트 제어부는,
상기 비용함수의 연산값에 기초하여 다음 프레임의 상기 추적 대상 객체에 대응하는 세그먼트에 상기 라벨을 부여하고,
상기 다음 프레임의 상기 추적 대상 객체에 대응하는 모든 세그먼트에 라벨이 부여되지 않고, 라벨이 부여된 세그먼트가 1개인 경우,
상기 영상 제어부는, 상기 다음 프레임의 열화상 영상을 이진화 영상으로 변환하고,
상기 세그먼트 제어부는, 상기 이진화 영상에 대하여 픽셀 연결 요소 분석(CCA)을 수행하여 상기 라벨이 부여된 1개의 세그먼트와 유사 특성을 갖는 상기 추적 대상 객체와 연계된 복수의 세그먼트를 검출하여 라벨 부여 대상을 결정하고, 검출된 상기 복수의 세그먼트에 상기 라벨을 보충하고,
상기 다음 프레임에서 상기 추적 대상 객체 외의 다른 객체의 세그먼트에 상기 라벨이 부여된 경우,
상기 연산부는, 상기 다음 프레임의 상기 라벨이 부여된 상기 다른 객체의 세그먼트와 상기 추적 대상 객체의 세그먼트간 이격거리를 연산하고,
상기 세그먼트 제어부는, 상기 이격거리가 미리 설정된 거리 이상인 경우, 상대적으로 크기가 작은 세그먼트의 라벨을 제거하는 것인, 객체 추적 장치.
An object tracking apparatus using super-pixels based on thermal imaging,
An image collecting unit for collecting the thermal image for each frame;
An image control unit for dividing the thermal image into a plurality of super pixels in a segment unit;
A segment control unit that gives a label identifying a segment corresponding to the object to be tracked among the segments of the reference frame; And
A calculation unit for calculating a cost function between a segment of a next frame and the segment corresponding to the object to be tracked,
, ≪ / RTI &
The segment control unit,
Assigns the label to a segment corresponding to the tracking object of the next frame based on the computed value of the cost function,
If no label is assigned to all the segments corresponding to the object to be tracked in the next frame and there is only one segment to which the label is assigned,
The image control unit converts the thermal image of the next frame into a binary image,
The segment control unit performs a pixel linking element analysis (CCA) on the binarized image to detect a plurality of segments associated with the tracking target object having similar characteristics to the one segment to which the label is attached, And the label is supplemented to the detected plurality of segments,
When the label is assigned to a segment of another object other than the object to be tracked in the next frame,
Wherein the operation unit calculates a separation distance between a segment of the other object to which the label of the next frame is attached and a segment of the object to be tracked,
Wherein the segment control unit removes a label of a relatively small segment when the distance is equal to or greater than a preset distance.
제9항에 있어서,
상기 연산부는,
다음 프레임의 세그먼트와 기준 프레임의 객체에 대응하는 세그먼트 간의 색상 속성 및 다음 프레임의 세그먼트의 중심 위치와 기준 프레임의 객체에 대응하는 세그먼트의 중심 위치와 연계된 위치 속성에 기초하여 상기 비용함수를 연산하는 것인, 객체 추적 장치.
10. The method of claim 9,
The operation unit,
The cost function is calculated based on the color attribute between the segment of the next frame and the segment corresponding to the object of the reference frame, and the positional attribute associated with the center position of the segment of the next frame and the center position of the segment corresponding to the object of the reference frame Object tracking device.
제10항에 있어서,
상기 세그먼트 제어부는,
상기 비용함수의 연산값이 최소인 세그먼트에 상기 라벨을 부여하는 것인, 객체 추적 장치.
11. The method of claim 10,
The segment control unit,
And assigns the label to the segment whose computed value of the cost function is the smallest.
제11항에 있어서,
상기 비용함수의 연산값이 최소인 세그먼트는 수학식 2에 기초하여 결정되고,
[수학식 2]
Figure 112017093313810-pat00004

C는 프레임별 세그먼트의 평균 색 벡터이고, X는 프레임별 각 세그먼트의 중심 위치값이고, j(t)는 다음 프레임(t)의 전체 세그먼트이고, i(t)는 비용함수의 연산값이 최소인 다음 프레임의 세그먼트인 것인, 객체 추적 장치.
12. The method of claim 11,
A segment whose computed value of the cost function is the minimum is determined based on Equation (2)
&Quot; (2) "
Figure 112017093313810-pat00004

C is the average color vector of the frame-by-frame segment, X is the center position value of each segment per frame, j (t) is the entire segment of the next frame (t) Is a segment of the next frame.
제11항에 있어서,
상기 연산부는, 상기 다음 프레임의 모든 세그먼트와 상기 기준 프레임의 상기 객체에 대응하는 복수의 세그먼트 각각의 상기 비용함수를 연산하되,
상기 세그먼트 제어부는, 상기 객체에 대응하는 세그먼트 별 연산값 중 최소값에 대응하는 다음 프레임의 세그먼트에 상기 라벨을 부여하는 것인, 객체 추적 장치.
12. The method of claim 11,
Wherein the operation unit calculates the cost function of each segment of the next frame and each of a plurality of segments corresponding to the object of the reference frame,
Wherein the segment control section assigns the label to a segment of a next frame corresponding to a minimum value among the calculation values for each segment corresponding to the object.
삭제delete 삭제delete 제9항에 있어서,
상기 영상 제어부는,
상기 열화상 영상의 각 화소의 유사 특성을 고려하여 밀집성, 경계일치도, 과소분할의 최소화, 균일성 중 적어도 하나의 특성에 기초하여 슈퍼픽셀로 분할하는 것인, 객체 추적 장치.
10. The method of claim 9,
The image control unit includes:
The super-pixel is divided into super-pixels based on at least one of characteristics of density, boundary agreement, minimization of under-division, and uniformity in consideration of similar characteristics of each pixel of the thermal image.
객체 모니터링 시스템에 있어서,
축사의 영상 정보를 획득하고, 상기 축사의 환경 정보를 수집하는 수집 장치; 및
상기 수집 장치로부터 수신한 영상 정보 및 환경 정보에 기초하여 가축의 행동을 모니터링하는 서버,
를 포함하되,
상기 영상 정보는 상기 가축의 열화상 영상을 포함하고,
상기 서버는 상기 제 1 항 내지 제5항 및 제 8 항 중 어느 한 항의 객체 추적 방법에 기초하여 가축의 행동을 모니터링하는 것인, 객체 모니터링 시스템.
In an object monitoring system,
A collecting device for acquiring image information of a barn and collecting environmental information of the barn; And
A server for monitoring the behavior of livestock based on the image information and environment information received from the collection device,
, ≪ / RTI &
Wherein the image information comprises a thermal image of the livestock,
Wherein the server monitors the behavior of the livestock based on the object tracking method of any one of claims 1 to 5 and 8.
제 1항 내지 5항 및 제 8항 중 어느 한 항의 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한 컴퓨터에서 판독 가능한 기록매체.
A computer-readable recording medium having recorded thereon a program for executing the method according to any one of claims 1 to 5 and a computer.
KR1020170123367A 2017-09-25 2017-09-25 Device and method for tracking object using superpixel based on thermal image KR101837027B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170123367A KR101837027B1 (en) 2017-09-25 2017-09-25 Device and method for tracking object using superpixel based on thermal image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170123367A KR101837027B1 (en) 2017-09-25 2017-09-25 Device and method for tracking object using superpixel based on thermal image

Publications (1)

Publication Number Publication Date
KR101837027B1 true KR101837027B1 (en) 2018-03-09

Family

ID=61727760

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170123367A KR101837027B1 (en) 2017-09-25 2017-09-25 Device and method for tracking object using superpixel based on thermal image

Country Status (1)

Country Link
KR (1) KR101837027B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109220680A (en) * 2018-11-14 2019-01-18 云南省烟草农业科学研究院 A kind of layout method and its layout production method of tobacco bred field trial
CN114459614A (en) * 2022-02-10 2022-05-10 浙江大华技术股份有限公司 Method and device for determining heat source type, storage medium and electronic device
KR20220001756U (en) * 2021-10-15 2022-07-14 송상훈 Livestock disease monitoring server
KR20230012264A (en) 2021-07-15 2023-01-26 한국수력원자력 주식회사 Prediction diagnosis method of equipment for using ai
KR20230045246A (en) 2021-09-28 2023-04-04 서울과학기술대학교 산학협력단 Image segmentation system and image segmentation method in distributed environment
WO2024019220A1 (en) * 2022-07-19 2024-01-25 주식회사 럭스로보 Object behavior detection system using thermal imaging

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Lee et al. Contour-constrained superpixels for image and video processing. CVPR, 2017년 7월, pp. 2443-2451.
Zhang et al. Feature matching for underwater image via superpixel tracking. ICAC, 2017년 9월 8일, pp. 1-5. 1부..공개특허공보 제10-2011-0049172호(2011.05.12.)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109220680A (en) * 2018-11-14 2019-01-18 云南省烟草农业科学研究院 A kind of layout method and its layout production method of tobacco bred field trial
KR20230012264A (en) 2021-07-15 2023-01-26 한국수력원자력 주식회사 Prediction diagnosis method of equipment for using ai
KR20230045246A (en) 2021-09-28 2023-04-04 서울과학기술대학교 산학협력단 Image segmentation system and image segmentation method in distributed environment
KR20220001756U (en) * 2021-10-15 2022-07-14 송상훈 Livestock disease monitoring server
KR200497533Y1 (en) * 2021-10-15 2023-12-07 송상훈 Livestock disease monitoring server
CN114459614A (en) * 2022-02-10 2022-05-10 浙江大华技术股份有限公司 Method and device for determining heat source type, storage medium and electronic device
WO2024019220A1 (en) * 2022-07-19 2024-01-25 주식회사 럭스로보 Object behavior detection system using thermal imaging
KR20240011512A (en) * 2022-07-19 2024-01-26 주식회사 럭스로보 System for detecting action of object by using infrared thermography image
KR102636116B1 (en) 2022-07-19 2024-02-13 주식회사 럭스로보 System for detecting action of object by using infrared thermography image

Similar Documents

Publication Publication Date Title
KR101837027B1 (en) Device and method for tracking object using superpixel based on thermal image
US20210153479A1 (en) Monitoring livestock in an agricultural pen
KR101837026B1 (en) Device and method for tracking object based on thermal image
Zin et al. Image technology based cow identification system using deep learning
Bello et al. Contour extraction of individual cattle from an image using enhanced Mask R-CNN instance segmentation method
WO2018036454A1 (en) Method and apparatus for annotating a video stream comprising a sequence of frames
KR20180051785A (en) Livestock monitoring system
US11910784B2 (en) Animal visual identification, tracking, monitoring and assessment systems and methods thereof
Yang et al. Deformable convolution and coordinate attention for fast cattle detection
US20230260327A1 (en) Autonomous livestock monitoring
Zheng et al. YOLO-BYTE: An efficient multi-object tracking algorithm for automatic monitoring of dairy cows
Noe et al. Automatic detection and tracking of mounting behavior in cattle using a deep learning-based instance segmentation model
KR102584357B1 (en) Apparatus for identifying a livestock using a pattern, and system for classifying livestock behavior pattern based on images using the apparatus and method thereof
He et al. Enhanced LiteHRNet based sheep weight estimation using RGB-D images
Wu et al. Monitoring the respiratory behavior of multiple cows based on computer vision and deep learning
CN111291646A (en) People flow statistical method, device, equipment and storage medium
WO2023041904A1 (en) Systems and methods for the automated monitoring of animal physiological conditions and for the prediction of animal phenotypes and health outcomes
Han et al. Deep learning-based multi-cattle tracking in crowded livestock farming using video
Chen et al. VTag: a semi-supervised pipeline for tracking pig activity with a single top-view camera
Sharma Rise of computer vision and internet of things
Dao et al. Automatic cattle location tracking using image processing
Huang et al. A semi-supervised generative adversarial network for amodal instance segmentation of piglets in farrowing pens
CN111523472A (en) Active target counting method and device based on machine vision
KR101595334B1 (en) Method and apparatus for movement trajectory tracking of moving object on animal farm
Li et al. Detection of attack behaviour of pig based on deep learning

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant