KR101827114B1 - Apparatus and method for detecting proximal entity in pen - Google Patents

Apparatus and method for detecting proximal entity in pen Download PDF

Info

Publication number
KR101827114B1
KR101827114B1 KR1020160061211A KR20160061211A KR101827114B1 KR 101827114 B1 KR101827114 B1 KR 101827114B1 KR 1020160061211 A KR1020160061211 A KR 1020160061211A KR 20160061211 A KR20160061211 A KR 20160061211A KR 101827114 B1 KR101827114 B1 KR 101827114B1
Authority
KR
South Korea
Prior art keywords
region
frame
area
interest
proximity
Prior art date
Application number
KR1020160061211A
Other languages
Korean (ko)
Other versions
KR20170130706A (en
Inventor
정용화
박대희
주미소
김희곤
사재원
이상진
한승엽
Original Assignee
고려대학교 세종산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 세종산학협력단 filed Critical 고려대학교 세종산학협력단
Priority to KR1020160061211A priority Critical patent/KR101827114B1/en
Publication of KR20170130706A publication Critical patent/KR20170130706A/en
Application granted granted Critical
Publication of KR101827114B1 publication Critical patent/KR101827114B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • A01K29/005Monitoring or measuring activity, e.g. detecting heat or mating
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K1/00Housing animals; Equipment therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Quality & Reliability (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Animal Husbandry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Zoology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Biophysics (AREA)
  • Image Analysis (AREA)

Abstract

축사 내 근접 개체 탐지 시, 카메라부를 통해 축사 내부가 촬영된 영상에서 복수의 개체가 근접하여 하나로 인식된 근접 개체 영역을 관심 영역으로 설정하고, 관심 영역이 설정된 제 1 프레임의 이전 프레임인 제 2 프레임에 대해 형태학 연산(Morphological Operation)을 처리하고, 형태학 연산 처리된 제 2 프레임을 제 1 프레임에 투영하고, 투영의 결과에 따른 제 3 프레임 상에서, 관심 영역에 대해 제 2 프레임의 객체 별 영역과의 겹침 여부에 기초하여, 관심 영역 내 구분된 영역들에 대한 영역 비율을 계산하고, 영역 비율에 기초하여 관심 영역 내 구분된 객체 별 영역을 조정하여 개별 개체를 분리하여 표시한다.In the detection of a near object in a housing, a proximity object region in which a plurality of objects are recognized as one is set as a region of interest in an image captured inside the housing through a camera section, and a second frame The second frame is projected on the first frame, and on the third frame according to the projection result, the morphological operation is performed on the object-by-object region of the second frame with respect to the region of interest Calculates the area ratio of the divided areas within the area of interest based on whether or not the area is overlapping, and adjusts the area of each object in the area of interest based on the area ratio to separate and display the individual objects.

Figure R1020160061211
Figure R1020160061211

Description

축사 근접 개체 탐지 장치 및 방법{APPARATUS AND METHOD FOR DETECTING PROXIMAL ENTITY IN PEN}[0001] APPARATUS AND METHOD FOR DETECTING PROXIMAL ENTITY IN PEN [0002]

본 발명은 형태학 연산 처리에 기반하여 축사 내의 근접 개체를 구분하는 개체 탐지 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and a method for detecting an object within a housing based on a morphological operation process.

소수의 관리자가 많은 개체를 관리해야 하는 축사·돈사의 특성상, 현실적으로 가축의 행동 특성을 실시간으로 파악하는 것은 매우 어렵다. 이에 따라, 최근에는 소규모 농장에서도 정보통신기술(Information Communication Technology, ICT)을 기반으로 저비용 구축이 가능한 개체 탐지 시스템에 대한 연구가 활발히 진행되고 있다. 그중에서도 카메라 센서를 통해 지속적으로 가축의 행동을 추적 및 분석하는 개체 탐지 시스템이 개발되고 있다.It is very difficult to grasp the behavior characteristics of livestock in real time due to the characteristics of barn and pig farms where a few administrators have to manage many objects. Recently, researches on object detection system that can construct low cost based on ICT (Information Communication Technology) have been actively carried out in small scale farms. Among them, object detection systems are being developed that continuously track and analyze livestock behavior through camera sensors.

기존에는 다양한 영상 처리 기법을 사용하여 축사 내 이상 상황을 탐지하는 개체 탐지 기술이 제안되었다. 그 중 차영상(Frame Difference) 기법을 이용한 개체 탐지 방식은, 이전 프레임(또는 배경 프레임)과 현재 프레임 간의 픽셀 변화를 계산하고 움직임을 탐지하는 기법이다. 이러한 차영상 기법에서는 움직임이 탐지된 픽셀을 이동하는 개체로서 구분하고, 구분된 이동 개체 별로 번호를 부여하여 이를 통해 움직임을 추적할 수 있다.In the past, object detection technology has been proposed to detect abnormal conditions in a house using various image processing techniques. Among them, the object detection method using the frame difference method calculates a pixel change between a previous frame (or a background frame) and a current frame and detects motion. In this differential image technique, the pixels in which the motion is detected are classified as moving objects, and numbers are assigned to the separated moving objects, thereby tracking the movement through them.

이와 관련하여, 대한민국 공개특허 제 10-1998-031927 호(발명의 명칭: 이동 물체의 위치를 경보하는 감시 카메라 및 감시 방법)는, 이동 물체의 거리에 따라 렌즈 상태를 조절하기 위한 렌즈 상태 조절부와, 소정 시간 간격을 갖는 감시 영역에 대한 제1 및 제2영상 데이타를 각각 저장하기 위한 저장부와, 저장부로부터 입력되는 제1 및 제2영상 데이타의 차영상을 계산하고, 계산된 차영상의 크기에 따라 이동 물체 여부를 검출하고, 그 검출 여부에 따라 이동 물체 검출신호를 발생하는 이동 물체 검출부를 구비하여, 이동 물체의 탐지 거리에 따라 구별 가능한 경보음을 발생시키는 감시 카메라 및 감시 방법을 개시하고 있다.In this regard, Korean Patent Laid-Open No. 10-1998-031927 entitled "Surveillance camera and monitoring method for alarming the position of a moving object" has a lens state adjusting unit A storage unit for storing first and second image data for a surveillance region having a predetermined time interval, and a storage unit for storing a difference image between the first and second image data input from the storage unit, And a moving object detection unit for detecting a moving object depending on the size of the moving object and generating a moving object detection signal in accordance with the detected moving object, Lt; / RTI >

그러나 이러한 차영상 기법을 이용한 개체 탐지 기술은 프레임 단위로 개체 개별의 행동을 탐지하는데 효과적이지만, 지속적인 개체 추적 시에는 개체 간 겹침 문제를 해결할 수 없다는 한계가 있었다. 또한, 차영상 기법 외의 다른 카메라 센서를 이용한 방식으로는 동영상 카메라를 사용하는 개체 탐지 기법이 있다. 이러한 동영상 카메라의 경우 날씨와 시간에 따라서 달라지는 빛의 영향을 많이 받아, 개체에 대한 지속적인 모니터링 시 추출하는 특징 정보들이 왜곡될 수 있어 개체 간 겹침 문제에 취약하다는 문제가 있었다.However, the object detection technique using this difference image technique is effective in detecting the behavior of each individual object on a frame basis, but there is a limitation in that the object overlapping problem can not be solved in continuous object tracking. In addition, there is an object detection technique using a moving picture camera as a method using a camera sensor other than the secondary image technique. In the case of such a moving image camera, there is a problem that it is affected by the light that varies depending on the weather and the time, and the characteristic information extracted during continuous monitoring of the object is distorted and is vulnerable to the problem of overlapping between the objects.

따라서, 이상의 문제점을 극복하여 여럿의 근접한 개체들을 개별적으로 분리할 수 있으며, 분리된 개별 개체 별 움직임을 지속적으로 정확히 탐지 및 추적할 수 있는 개체 탐지 기술이 필요하다.Accordingly, there is a need for an object detection technology that can separate multiple nearby objects by overcoming the above-mentioned problems, and can continuously detect and track motion of individual individual objects.

본 발명의 일 실시예는 축사 내를 촬영한 영상에서 복수의 개체가 서로 근접되어 있어 하나의 객체로서 인식되는 영역을 개별 개체로 분리할 수 있는 축사 근접 개체 탐지 장치 및 방법을 제공하고자 한다.An embodiment of the present invention is to provide a device and method for detecting a housing proximity object which can separate an area recognized as a single object by a plurality of objects in proximity to each other in an image captured in a housing.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.It should be understood, however, that the technical scope of the present invention is not limited to the above-described technical problems, and other technical problems may exist.

상기와 같은 기술적 과제를 달성하기 위한 본 발명의 일 측면에 따른, 축사 근접 개체 탐지 장치는, 축사 내부를 촬영하는 카메라부; 근접 개체 탐지 프로그램이 저장된 메모리; 및 상기 메모리에 저장된 근접 개체 탐지 프로그램을 실행하는 프로세서를 포함하며, 상기 프로세서는 상기 프로그램의 실행에 응답하여, 상기 카메라부를 통해 촬영된 영상에서 복수의 개체가 근접하여 하나로 인식된 근접 개체 영역을 관심 영역으로 설정하고, 상기 관심 영역이 설정된 제 1 프레임의 이전 프레임인 제 2 프레임에 대해 형태학 연산(Morphological Operation) 처리하고, 상기 형태학 연산 처리된 제 2 프레임을 상기 제 1 프레임에 투영하고, 상기 투영의 결과에 따른 제 3 프레임 상에서 상기 관심 영역에 대해 상기 제 2 프레임의 객체 별 영역과의 겹침 여부에 기초하여 상기 관심 영역 내 구분된 영역들에 대한 영역 비율을 계산하고, 상기 영역 비율에 기초하여 상기 관심 영역 내 구분된 객체 별 영역을 조정하여 개별 개체를 분리 및 표시한다.According to an aspect of the present invention, there is provided an apparatus for detecting a close proximity to a housing, comprising: a camera unit for photographing the inside of the housing; A memory in which a proximity object detection program is stored; And a processor for executing a proximity object detection program stored in the memory, wherein, in response to the execution of the program, the processor extracts, from an image photographed through the camera unit, A morphological operation process is performed on a second frame which is a previous frame of the first frame in which the ROI is set and the morphological operation processed second frame is projected onto the first frame, Calculating a region ratio for the regions of interest within the region of interest based on whether the region of interest overlaps with the region of the object of the second frame on the third frame in accordance with a result of the comparison, The individual objects are separated and displayed by adjusting the divided regions for each object in the region of interest .

그리고 본 발명의 다른 측면에 따른, 축사 근접 개체 탐지 장치를 통한 근접 개체 탐지 방법은, 카메라부를 통해 축사 내부가 촬영된 영상에서 복수의 개체가 근접하여 하나로 인식된 근접 개체 영역을 관심 영역으로 설정하는 단계; 상기 관심 영역이 설정된 제 1 프레임의 이전 프레임인 제 2 프레임에 대해 형태학 연산(Morphological Operation)을 처리하는 단계; 상기 형태학 연산 처리된 제 2 프레임을 상기 제 1 프레임에 투영하는 단계; 상기 투영의 결과에 따른 제 3 프레임 상에서, 상기 관심 영역에 대해 상기 제 2 프레임의 객체 별 영역과의 겹침 여부에 기초하여, 상기 관심 영역 내 구분된 영역들에 대한 영역 비율을 계산하는 단계; 및 상기 영역 비율에 기초하여 상기 관심 영역 내 구분된 객체 별 영역을 조정하여 개별 개체를 분리하여 표시하는 단계를 포함한다.According to another aspect of the present invention, there is provided a proximity object detection method using a device for detecting a proximity of a close proximity to a building, the proximity object detection method comprising: step; Processing a morphological operation for a second frame that is a previous frame of the first frame in which the ROI is set; Projecting the morphologically processed second frame onto the first frame; Calculating a region ratio for the regions delimited within the region of interest based on whether the region of interest overlaps with the object-specific region of the second frame over the third frame in accordance with a result of the projection; And separating and displaying the individual entities by adjusting regions separated by the object within the region of interest based on the region ratios.

전술한 본 발명의 과제 해결 수단에 의하면, 밀집 사육 환경인 축사·돈사 내에서 개체 간 겹침 영역을 정확하게 탐지하여 개별 개체를 구별 및 추적할 수 있다. 즉, 탐지 영상 내에서 둘 이상의 개체들이 근접하여 하나의 개체로 인식되더라도 이를 개별적으로 분리할 수 있으므로 모든 개체에 대한 지속적인 개별 관리 및 추적이 가능하여 효율적이다.According to the above-mentioned object of the present invention, it is possible to accurately detect the overlapping region between individuals in a housing and pig house, which is a dense breeding environment, to distinguish and track individual objects. That is, even if two or more individuals in the detection image are recognized as a single entity, they can be individually separated. Therefore, it is possible to continuously manage and track individual objects individually.

도 1은 본 발명의 일 실시예에 따른 축사 근접 개체 탐지 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 근접 개체가 표시된 이진화 영상의 일례이다.
도 3은 본 발명의 일 실시예에 따른 복수의 개체가 서로 근접하기 이전의 영상에서의 개별 객체를 레이블링 처리한 영상의 일례이다.
도 4는 본 발명의 일 실시예에 따른 근접 개체 발생 이전의 영상 프레임에 대해 열림 연산 처리한 결과가 표시된 모식도이다.
도 5는 본 발명의 일 실시예에 따른 근접 개체 발생 이전의 영상 프레임에 대해 침식 연산 처리한 결과가 표시된 모식도이다.
도 6은 본 발명의 일 실시예에 따른 근접 개체 발생 이전의 영상 프레임에 대해 형태학 연산 처리한 결과 프레임을 현재 영상 프레임에 투영한 결과 영상 프레임의 일례이다.
도 7은 본 발명의 일 실시예에 따른 하나의 객체로 인식된 관심 영역이 개별 객체로 분리되어 표시된 모식도이다.
도 8은 본 발명의 일 실시예에 따른 축사 근접 개체 탐지 방법을 설명하기 위한 순서도이다.
FIG. 1 is a block diagram of an apparatus for detecting a nearby housing object according to an embodiment of the present invention.
2 is an example of a binarized image in which a proximity object is displayed according to an embodiment of the present invention.
3 is an example of an image obtained by labeling individual objects in an image before a plurality of entities approach each other according to an embodiment of the present invention.
FIG. 4 is a schematic diagram showing a result of an open calculation process for an image frame before generation of a proximity object according to an embodiment of the present invention.
FIG. 5 is a schematic diagram showing a result of erosion operation processing on an image frame before generation of a near object according to an embodiment of the present invention.
FIG. 6 is an example of an image frame obtained by projecting a morphological operation result frame on an image frame prior to proximity object generation according to an embodiment of the present invention to a current image frame.
FIG. 7 is a conceptual diagram showing regions of interest recognized as one object and separated into individual objects according to an embodiment of the present invention. Referring to FIG.
FIG. 8 is a flowchart illustrating a method for detecting a housing close-up object according to an exemplary embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 본 발명을 명확하게 설명하기 위해 도면에서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. 또한, 도면을 참고하여 설명하면서, 같은 명칭으로 나타낸 구성일지라도 도면에 따라 도면 번호가 달라질 수 있고, 도면 번호는 설명의 편의를 위해 기재된 것에 불과하고 해당 도면 번호에 의해 각 구성의 개념, 특징, 기능 또는 효과가 제한 해석되는 것은 아니다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description in the drawings are omitted, and like parts are denoted by similar reference numerals throughout the specification. In the following description with reference to the drawings, the same reference numerals will be used to designate the same names, and the reference numerals are merely for convenience of description, and the concepts, features, and functions Or the effect is not limited to interpretation.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when a component is referred to as "comprising ", it is understood that it may include other components as well as other components, But do not preclude the presence or addition of a feature, a number, a step, an operation, an element, a component, or a combination thereof.

본 명세서에 있어서 '부(部)' 또는 ‘모듈’이란, 하드웨어 또는 소프트웨어에 의해 실현되는 유닛(unit), 양방을 이용하여 실현되는 유닛을 포함하며, 하나의 유닛이 둘 이상의 하드웨어를 이용하여 실현되어도 되고, 둘 이상의 유닛이 하나의 하드웨어에 의해 실현되어도 된다.Herein, the term " part " or " module " means a unit realized by hardware or software, a unit realized by using both, and a unit realized by using two or more hardware Or two or more units may be realized by one hardware.

이하, 도면을 참조하여 본 발명의 일 실시예에 따른 축사 내 근접 개체 탐지 장치 및 방법에 대해서 상세히 설명하도록 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an apparatus and method for detecting an in-housing proximity object according to an embodiment of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 축사 개체 탐지 장치의 구성도이다.1 is a block diagram of a housing detection apparatus according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 축사 개체 탐지 장치(100)는 카메라부(110), 메모리(120) 및 프로세서(130)를 포함한다.1, a housing detection apparatus 100 includes a camera unit 110, a memory 120, and a processor 130. [

본 발명의 일 실시예에서는, 축사의 일 예로서 돈사를 고려하되, 축사 개체 탐지 장치(100)가 돈사 내에서 밀집 사육되고 있는 돼지 개체(entity)를 탐지 및 추적하는 것을 설명하도록 한다. 또한, 카메라부(110)를 통해 촬영된 영상 내에 존재하는 돼지 개체를 탐지 대상으로서의 객체(object)라고 지칭하도록 한다.In an embodiment of the present invention, it will be described that the cage detection apparatus 100 detects and tracks a porcine entity being densely packed in a cage, considering a cage as an example of a cage. In addition, the pig body existing in the image photographed through the camera unit 110 is referred to as an object to be detected.

카메라부(110)는 축사의 일 위치에 축사 내부 전체를 촬영할 수 있는 각도로 설치되며, 축사 내부를 촬영한 영상을 실시간으로 프로세서(130)로 전송한다. 예를 들어, 도 1에 도시한 바와 같이, 카메라부(110)는 바닥으로부터 임의의 높이(예: 천장) 상의 일 영역에 설치될 수 있으며, 축사 내부를 촬영하여 지속적으로 녹화할 수 있다.The camera unit 110 is installed at a position where the entire interior of the housing can be photographed at one position of the housing, and transmits the image photographed inside the housing to the processor 130 in real time. For example, as shown in FIG. 1, the camera unit 110 may be installed in a certain area (for example, a ceiling) at an arbitrary height from the floor.

메모리(120)는 축사 촬영 영상을 처리하여 객체를 분리해내고, 분리된 객체 중 복수의 객체가 근접되어 하나의 객체로서 인식되는 근접 객체를 검출하고, 근접 객체를 개별 객체로 구분하는 근접 개체 탐지 프로그램을 저장하고 있다.The memory 120 separates the object by processing the housing photographed image, detects a proximity object in which a plurality of objects are approximated to be recognized as one object, separates the proximity object into individual objects, You are saving the program.

프로세서(130)는 메모리(120)에 저장되어 있는 프로그램을 실행하여, 근접 개체를 탐지하는데 필요한 기설정된 처리들을 수행한다. 이때, 프로세서(130)는 근접 개체가 검출된 영상 프레임(이하, “현재 프레임”이라고 지칭함)의 이전 프레임(즉, 객체가 근접하기 이전의 프레임)에 대해 형태학 연산(Morphological Operation)을 처리한다. 그리고 프로세서(130)는 형태학 연산 처리된 이전 프레임을 현재 프레임에 투영하고, 투영의 결과로서 획득되는 프레임(이하, ‘투영 결과 프레임’이라고 지칭함)에 영역 확장 알고리즘 및 영역 비율에 기초한 인접 픽셀 색상 재조정을 처리한다. 이를 통해, 프로세서(130)는 복수의 개체가 하나의 개체로 인식되었던 근접 개체 영역을 개별 개체로 분리하여 표시한다. 이처럼 프로세서(130)는 시간 정보를 이용하여 이전 프레임과 현재 프레임의 정보를 동시에 활용함으로써, 이전 프레임에서 분리된 개별 객체를 현재 프레임의 근접 객체의 영역에 적용하여 개별 개체를 구분할 수 있다.The processor 130 executes a program stored in the memory 120 to perform predetermined processes necessary for detecting a nearby entity. At this time, the processor 130 performs a morphological operation on a previous frame of the detected image frame (hereinafter, referred to as a "current frame") (ie, a frame before the object comes close). Then, the processor 130 projects the morphologically processed previous frame onto the current frame and adds the area enhancement algorithm and the adjacent pixel chrominance correction based on the area ratio to a frame obtained as a result of the projection (hereinafter, referred to as a 'projection result frame' Lt; / RTI > In this manner, the processor 130 separates the proximity object area, into which the plurality of objects have been recognized as one object, as individual objects. In this way, the processor 130 can utilize the information of the previous frame and the current frame at the same time by using the time information, so that individual objects separated from the previous frame can be applied to the area of the near object of the current frame.

이하, 프로세서(130)를 통한 축사 내 근접 개체 탐지를 위한 처리 과정에 대해서 상세히 설명하도록 한다.Hereinafter, a processing procedure for detecting an object in the house through the processor 130 will be described in detail.

프로세서(130)는 근접 개체 탐지 프로그램의 실행을 통해, 카메라부(110)로부터 수신된 영상(즉, 축사 내부를 촬영한 영상)에 대해 기설정된 영상 처리를 하여 영상 내에서 탐지 목표 객체(즉, 돼지 개체)와 배경을 분리한다.The processor 130 performs predetermined image processing on the image received from the camera unit 110 (that is, the image captured inside the housing) through the execution of the proximity object detection program, Pigs) and background.

이때, 프로세서(130)는 수신된 영상 프레임에 대해 HSV(Hue Saturation Value)의 값을 설정한 후, 그 결과 영상을 이진화하여 객체와 배경을 분리할 수 있다. 참고로, HSV는 그래픽에서 색조(Hue), 채도(Saturation) 및 명암(Value)의 형태로 색상을 표시하는 컬러 모델이다. 이러한 영상 처리를 통해, 축사를 촬영한 원영상에서 축사 바닥에 존재하는 노이즈 물질 또는 형상(예: 개체의 오물 또는 조명에 의한 개체의 그림자 등)을 제거하고 객체를 구분해낼 수 있다.At this time, the processor 130 sets a value of HSV (Hue Saturation Value) for the received image frame, and binarizes the resultant image to separate the object and the background. For reference, HSV is a color model that displays colors in the form of Hue, Saturation, and Value in graphics. Through such image processing, it is possible to remove noise substances or shapes (eg, object dirt or shadow of an object due to illumination) existing on the floor of the house from the original image of the house and distinguish the objects.

그리고 프로세서(130)는 검출된 객체들 중 여러 객체가 근접한 경우를 탐지하고, 근접 개체가 존재하는 영역을 각각 관심 영역(ROI, Region of Interest)으로 설정한다. 예를 들어, 프로세서(130)는 검출된 객체 별 면적에 기초하여 근접 개체를 구분할 수 있다. 이때, 프로세서(130)는 사전에 근접 개체가 없는 것으로 확인된 기준 영상 프레임으로부터 각각의 객체를 검출하고, 각 객체의 면적값을 저장해둘 수 있다. 그리고 프로세서(130) 사전에 저장된 객체 별 면적값에 기초하여 설정된 기준 면적값과 현재 입력된 프레임에서 검출된 임의의 객체의 면적값을 비교하여, 임의의 객체의 면적값이 기준 면적값을 초과하는 경우 해당 객체를 근접 개체로서 판단할 수 있다.Then, the processor 130 detects a case where a plurality of objects among the detected objects are close to each other, and sets a region in which the proximity object exists as a region of interest (ROI). For example, the processor 130 may identify a proximity entity based on the detected area per object. At this time, the processor 130 may detect each object from the reference image frame that has been confirmed as having no nearby object in advance, and may store the area value of each object. Then, the processor 130 compares the reference area value set based on the area value of each object stored in advance with the area value of any object detected in the currently inputted frame, and if the area value of an arbitrary object exceeds the reference area value The object can be judged as a proximity object.

프로세서(130)는 위와 같은 영상 처리된 결과 영상 프레임 중에서, 관심 영역이 설정된 현재 프레임(즉, 근접 개체가 발생된 프레임)과, 관심 영역이 발생되기 이전(즉, 복수의 개체가 서로 근접하기 이전) 프레임을 매칭하여 저장한다.The processor 130 determines whether the current frame (i.e., the frame in which the proximity object has been generated) and the current frame before the interest region are generated (i.e., before the plurality of objects come close to each other ) Frames and stores them.

도 2는 본 발명의 일 실시예에 따른 근접 개체가 표시된 이진화 영상의 일례이다.2 is an example of a binarized image in which a proximity object is displayed according to an embodiment of the present invention.

도 2에서는, 수신된 영상의 전체 영역 중에서 세마리의 돼지 개체가 서로 근접되어 있는 상태가 발생된 일부 영역인 관심 영역(P10)을 예로서 나타내었다.FIG. 2 shows an example of a region of interest P10, which is a partial region in which three swine individuals are close to each other in the entire region of the received image.

프로세서(130)는 복수의 객체가 근접하기 이전의 프레임인 ‘이전 프레임’에서 각각의 객체를 레이블링 처리하여, 서로 상이한 객체들을 식별 가능하도록 구분한다. 참고로, 레이블링 처리는 이진 영상에서 객체와 배경을 분리하고자 할 경우 각 객체에 라벨링을 처리하는 작업을 의미한다. 예를 들어, 영상을 이진화시켰을 때 사전에 설정된 임의의 컬러값들을 가진 픽셀들의 집합을 하나의 객체로 규정할 수 있다. The processor 130 labels each object in a 'previous frame', which is a frame before a plurality of objects are brought close to each other, and identifies different objects so that they can be distinguished from each other. For reference, the labeling process refers to a process of labeling each object when the object and the background are separated from each other in the binary image. For example, when an image is binarized, a set of pixels having predetermined color values set in advance can be defined as one object.

도 3은 본 발명의 일 실시예에 따른 개체 근접 이전의 영상에서 개별 객체를 레이블링 처리한 영상의 일례이다.FIG. 3 is an example of an image obtained by labeling an individual object in an image prior to object proximity according to an exemplary embodiment of the present invention.

도 3에서는, 앞서 도 2에 도시한 '관심 영역이 설정되기 이전 프레임'에서 구분된 객체들을 나타내었다. 이때, 관심 영역은 세 개의 객체가 근접된 결과로서, 도 3에서와 같이 제 1 내지 제3 객체로 구분되어 각각 라벨링될 수 있다.In FIG. 3, the objects classified in the 'frame before the ROI is set' shown in FIG. 2 are shown. At this time, the region of interest is a result of the proximity of the three objects, and can be labeled as the first to third objects, respectively, as shown in FIG.

프로세서(130)는 라벨링된 이전 프레임의 각 객체와 현재 프레임에서의 관심 영역의 객체의 픽셀 위치를 비교하고, 두 프레임에서 객체의 위치가 소정 영역 이상 중복되면 이전 프레임의 객체를 현재 프레임 상에 투영할 수 있다.The processor 130 compares the pixel position of each object of the labeled previous frame with the object of interest in the current frame and if the position of the object in the two frames overlaps the predetermined area or more, can do.

한편, 프로세서(130)는 투영 처리를 수행하기에 앞서, 이전 프레임에 대한 형태학 연산을 처리한다.On the other hand, the processor 130 processes the morphological operation for the previous frame before performing the projection processing.

프로세서(130)는 현재 프레임에 매칭되어 저장된 이전 프레임을 복사하여 임시 프레임(이하, ‘ 형태학 연산 임시 프레임’이라고 지칭함)을 생성한다. 그리고, 프로세서(130)는 이전 프레임 원본이 아닌 형태학 연산 임시 프레임에 대해 아래와 같은 형태학 연산 처리를 수행할 수 있다. 다만, 이전 프레임 원본을 형태학 연산 처리하여 현재 프레임에 투영하는 것도 가능하다.The processor 130 generates a temporary frame (hereinafter referred to as a morphological operation temporary frame) by copying the previous frame matched and stored in the current frame. The processor 130 may perform morphological operation processing on the morphological operation temporary frame, which is not the previous frame original, as follows. However, it is also possible to morphologically process the original of the previous frame and project it on the current frame.

먼저, 프로세서(130)는 영상 정보의 경계 너비를 일정하게 정리하기 위하여 컴퓨터 비전 기법 중 하나인 형태학 연산을 사용할 수 있다. 이러한 형태학 연산은 영상의 형태를 분석하고 처리하는 기법으로, 미리 정의된 모양 요소를 사용해 영상의 각 화소를 조사하여 영상을 변환한다.First, the processor 130 may use a morphological operation, which is one of the computer vision techniques, to uniformize the boundary width of the image information. This morphological operation is a technique of analyzing and processing the shape of an image, and it uses a predefined shape element to scan each pixel of the image and convert the image.

도 4는 본 발명의 일 실시예에 따른 근접 개체 발생 이전의 영상 프레임에 대해 열림 연산 처리한 결과가 표시된 모식도이다.FIG. 4 is a schematic diagram showing a result of an open calculation process for an image frame before generation of a proximity object according to an embodiment of the present invention.

프로세서(130)는 추후 연산에서 발생할 수 있는 문제를 최소화하여 보다 정확하게 개별 돼지 분리 문제를 해결하기 위해, 형태학 연산 임시 프레임에 대해 형태학 연산 기법 중 열림 연산(Opening Operation)을 수행한다. 이에 따라, 도 3에서와 같은 형태학 연산 임시 프레임 상의 개별 객체들(즉, 제 1 내지 제 3 객체)의 형상이 도 4에 도시된 바와 같이 변환된다. 참고로, 열림 연산은 영상에 대해 침식 연산을 수행한 후 뒤이어 팽창 연산을 수행하는 방법으로, 잡음을 제거하는 등 대상에서 세부 영역을 제거하는 데에 주로 사용된다. 이때, 침식 연산과 팽창 연산은 형태학 연산 임시 프레임의 각 픽셀을 조사하고, 조사한 픽셀의 인접 픽셀을 참조하여 영상을 변환하는 과정을 의미한다. 프로세서(130)는 형태학 연산 임시 프레임에 열림 연산(침식 연산을 1회 수행한 뒤 팽창 연산을 1회 수행)을 이용하여 개별 객체의 형태를 정리한다.The processor 130 performs an opening operation of a morphological operation technique on a morphological operation temporary frame in order to solve the problem of individual pig separation more accurately by minimizing a problem that may arise in a future operation. Accordingly, the shapes of the individual objects (i.e., the first to third objects) on the morphological operation temporary frame as shown in Fig. 3 are transformed as shown in Fig. For reference, the open operation is a method of performing an erosion operation on an image followed by an expansion operation, and is mainly used to remove a detail area from an object such as noise. In this case, the erosion operation and the expansion operation refer to the process of examining each pixel of the morphological operation temporal frame and referring to the neighboring pixels of the examined pixel to convert the image. The processor 130 arranges the shapes of the individual objects using an open operation (one erosion operation and one expansion operation) in the morphological operation temporary frame.

다음으로, 프로세서(130)는 형태학 연산 임시 프레임에서 각 객체의 중앙 부분이 일정 크기가 되는 시점까지, 형태학 연산 중 침식 연산(Erosion Operation) 처리를 반복한다. 참고로, 침식 연산 처리 시 객체의 크기는 줄어들고 배경은 확장된다.Next, the processor 130 repeats the erosion operation process during the morphological operation until the central portion of each object becomes a certain size in the morphological operation temporary frame. For reference, the erosion operation reduces the size of the object and extends the background.

도 5는 본 발명의 일 실시예에 따른 근접 개체 발생 이전의 영상 프레임에 대해 침식 연산 처리한 결과가 표시된 모식도이다.FIG. 5 is a schematic diagram showing a result of erosion operation processing on an image frame before generation of a near object according to an embodiment of the present invention.

프로세서(130)는 침식 연산을 한 번씩 수행한 결과에 대한 각 객체의 면적이 한 마리 돼지(즉, 임의의 개별 객체)의 크기보다 작아지기 직전까지 침식 연산을 반복 수행하여 객체의 중앙 부분을 획득한다. 예를 들어, 도 5에서는 개별 객체 별로 1/3 면적이 되는 시점까지 침식 연산을 수행한 것을 나타내었다. 이때, 프로세서(130)는 침식 연산 수행 중 하나의 객체가 다수의 부분으로 분할될 경우, 면적이 가장 큰 크기의 부분만을 침식 결과로 반영할 수 있다.The processor 130 repeatedly performs the erosion operation until the area of each object with respect to the result of performing the erosion operation is smaller than the size of one pig (i.e., an arbitrary individual object) do. For example, FIG. 5 shows that the erosion operation is performed up to a point of 1/3 area for each object. At this time, when one object is divided into a plurality of portions during the erosion operation, the processor 130 may reflect only the portion having the largest area as the erosion result.

다음으로, 프로세서(130)는 각 객체의 중앙 부분이 획득된 형태학 연산 임시 프레임에서 각 객체가 다른 객체의 중앙 부분에 닿기 직전까지, 형태학 연산 중 팽창 연산(Dilation Operation) 처리를 반복 수행한다. 참고로 팽창 연산 처리 시 객체의 크기는 팽창하고 배경은 줄어든다.Next, the processor 130 repeats the dilation operation process during the morphological operation until each object reaches the center portion of the other object in the morphological operation temporary frame in which the central portion of each object is obtained. For reference, the size of the object expands and the background decreases during the dilation operation.

그런 다음, 프로세서(130)는 형태학 연산을 통해 변환된 영상 프레임과 시간 정보(Temporal Information)를 사용하여 영상 정보(즉, 현재 프레임의 근접 개체 영역)를 여러 영역(즉, 개별 개체)으로 분할한다. 이와 같은 영역 기반의 영상 정보에서 복수의 객체들을 서로 분리하기 위하여, 프로세서(130)는 인접 픽셀을 검사하여 검사한 픽셀을 인접 영역으로 추가하는지 여부를 판단하는 영역 확장 기법(Region Growing)을 사용한다. 이때, 프로세서(130)는 형태학 연산에 따른 결과를 적용하여 객체 분리를 처리하되, 그 객체 분리 결과를 완전히 신뢰할 수 있도록 시간 정보를 기반으로 각 객체가 차지하는 비율을 계산하고 픽셀의 값을 재조정하여 근접 개체를 개별 개체로 구분한다.Then, the processor 130 divides the image information (i.e., the near object region of the current frame) into a plurality of regions (i.e., individual objects) using the converted image frame and temporal information through the morphological operation . In order to separate a plurality of objects from each other in the area-based image information, the processor 130 uses a region growing technique to determine whether to add the inspected pixel as a neighboring area by examining neighboring pixels . At this time, the processor 130 processes the object separation by applying the result of the morphological operation, calculates the ratio occupied by each object based on the time information so that the object separation result can be completely trusted, re- Separate objects into individual objects.

구체적으로, 프로세서(130)는 침식 연산 및 팽창 연산 처리까지의 과정을 수행한 형태학 연산 임시 프레임을 현재 프레임에 투영하여 새로운 프레임 생성하여, 하나의 객체로 인식되던 근접 개체 영역을 개별 객체들을 구분할 수 있는 여러 영역으로 분할한다.Specifically, the processor 130 may generate a new frame by projecting a morphological operation temporary frame that has undergone the processes up to the erosion operation and the dilation operation processing, and may divide the proximity object region recognized as one object into individual objects Into several regions.

도 6은 본 발명의 일 실시예에 따른 근접 개체 발생 이전의 영상 프레임에 대해 형태학 연산 처리한 결과 프레임을 현재 영상 프레임에 투영한 결과 영상 프레임의 일례이다.FIG. 6 is an example of an image frame obtained by projecting a morphological operation result frame on an image frame prior to proximity object generation according to an embodiment of the present invention to a current image frame.

도 6은 레이블링된 이전 프레임에 대해 형태학 연산을 수행한 임시 프레임 영상을, 영역이 구분되지 않는 현재 프레임 영상에 투영한 결과를 표현한 모식도이며, 투영 결과 나타날 수 있는 모든 영역의 유형을 나타낸다.FIG. 6 is a schematic diagram illustrating a result of projecting a temporary frame image subjected to a morphological operation on a labeled previous frame on a current frame image in which no region is distinguished, and shows the types of all regions that can be projected.

도 6에 도시한 바와 같이, 투영 결과 프레임에는 형태학 연산 임시 프레임 상의 객체 별 영역과 현재 프레임의 근접 개체 영역이 오버랩된 결과로서, 확정 영역, 겹침이 있는 불확정 영역, 및 겹침이 없는 불확정 영역이 형성된다. 이때, ‘확정 영역’은 이전 프레임에서 레이블링된 색상을 갖는 모든 영역을 나타내며, ‘겹침이 있는 불확정 영역’은 이전 프레임에서 레이블링된 색상 이외의 새로운 색상을 갖는 모든 영역을 나타낸다. 그리고 ‘겹침이 없는 불확정 영역’은 현재 프레임에 형태학 연산 임시 프레임을 투영하여도 색상의 변화가 없는 부분(도 6에서는 오버랩된 객체의 영역 중 “흰색” 부분인 것을 예로서 설명함)으로서, 해당 공간은 객체의 움직임에 의해 나타난 영역이다.As shown in Fig. 6, the projection result frame is a result of overlapping the object-specific region on the morphological operation temporary frame and the proximate individual region of the current frame, and the confirmation region, the overlapped uncertain region, do. At this time, the 'determination area' indicates all areas having a color labeled in the previous frame, and the 'overlapped uncertain area' indicates all areas having a new color other than the color labeled in the previous frame. The 'uncertainty region without overlap' is a portion where there is no change in color even when a morphological operation temporal frame is projected on the current frame (in FIG. 6, for example, the white portion of the overlapped object is described as an example) Space is the area represented by the movement of objects.

그런 다음, 프로세서(130)는 새로운 프레임(즉, 투영 결과 프레임)에 생성된 영역 중 겹침이 없는 불확정 영역에 대하여 영역 확장 알고리즘을 적용한다.The processor 130 then applies a region extension algorithm to the uncertainty-free region of the generated region in the new frame (i.e., the projection result frame).

구체적으로, 프로세서(130)는 투영 결과 프레임에 생성된 영역에 대해서 시작 지점으로부터 픽셀 탐색을 처리하여, 각 픽셀 별로 인접 픽셀에 “흰색” 픽셀이 있는지 판단한다. 이때, 인접 픽셀에 흰색 픽셀이 존재할 경우 인접한 색으로 흰색 픽셀 부분을 채우는 과정을 모든 픽셀 검사가 끝날 때까지 반복한다. 반면에, 시작 지점에서부터 인접 픽셀에 흰색 픽셀이 존재하지 않을 경우, 해당 시작 지점을 새로운 시작 지점으로 변경하여 다시 픽셀 탐색 및 흰색 픽셀에 대해 인접 픽셀의 색상으로의 채우기를 반복한다.Specifically, the processor 130 processes the pixel search from the starting point for the region generated in the projection result frame, and determines whether there is a " white " pixel in the adjacent pixel for each pixel. At this time, if white pixels exist in adjacent pixels, the process of filling white pixel portions with adjacent colors is repeated until all pixels are tested. On the other hand, if white pixels do not exist in the adjacent pixels from the starting point, the corresponding starting point is changed to the new starting point, and pixel searching and filling of the adjacent pixels with the white pixels are repeated.

다음으로, 프로세서(130)는 영역 확장 알고리즘 적용 처리가 완료된 프레임에서 근접 개체 영역 내에서 어느 하나의 객체로 구분된 ‘확정 영역’과 이전 프레임에서 레이블링된 객체 영역에 대해, 각각 레이블링된 객체의 픽셀 수를 계산하여 그 영역 비율(이하, “제 1 영역 비율”이라고 지칭함)을 계산한다.Next, the processor 130 determines whether or not the area of the object to be labeled in the previous frame is the pixel of the labeled object, And calculates the ratio of the area (hereinafter, referred to as " first area ratio ").

<수학식 1>&Quot; (1) &quot;

Figure 112016047945516-pat00001
Figure 112016047945516-pat00001

수학식 1과 같이, 제 1 영역 비율은 영역 확장 알고리즘까지 적용된 투영 결과 프레임에서, 현재 프레임의 근접 개체 영역 내 구분된 객체 별 확정 영역의 픽셀 수를 이전 프레임에서 레이블링된 객체 영역 별 픽셀 수로 나누어 산출할 수 있다.As shown in Equation (1), the first region ratio is calculated by dividing the number of pixels of the confirmed region of each object identified in the proximity region of the current frame by the number of pixels of the object region labeled in the previous frame in the projection result frame applied up to the region extension algorithm can do.

그런 다음, 프로세서(130)는 투영 결과 프레임에 생성된 영역 중 겹침이 있는 불확정 영역 별로, 겹침을 유발하는 색상 중 제 1 영역 비율의 값이 작은 색상을 선택하여 해당 영역을 레이블링한다. Then, the processor 130 selects a color having a smaller ratio of the first area ratio among the colors causing the overlap, for each indeterminate area having overlapping among the areas generated in the projection result frame, and labels the corresponding area.

예를 들어, 도 6을 참조하면, 겹침이 있는 불확정 영역(P61)은 제 2 객체와 제 3 객체의 색상에 의해 겹쳐진다. 즉, 제 2 객체의 라벨링 색상과 제 3 객체의 라벨링 색상이 겹침이 있는 불확정 영역(P61)의 겹침 유발 색상이다. 이때, 프로세서(130)는 근접 개체 영역에서 제 2 객체로서의 확정 영역(P62)의 픽셀 수와 이전 프레임에서 레이블링된 제 2 객체 영역의 픽셀 수에 기초한 제 1 영역 비율을 계산하고, 근접 개체 영역에서 제 3 객체로서의 확정 영역(P63)의 픽셀 수와 이전 프레임에서 레이블링된 제 3 객체 영역의 픽셀 수에 기초한 제 1 영역 비율을 계산한다. 그리고 프로세서(130)는 계산된 두 제 1 영역 비율을 비교하여 더 작은 값을 갖는 개별 객체를 선택하고, 선택된 개별 객체의 라벨링 색상으로 겹침이 있는 불확정 영역(P61)을 레이블링한다. 만약, 도 6에서 제 2 객체에 대응하는 제 1 영역 비율보다 제 3 객체에 대응하는 제 1 영역 비율의 값이 작을 경우, 겹침이 있는 불확정 영역(P61)은 제 3 객체의 색상으로 레이블링될 수 있다.For example, referring to FIG. 6, the overlapped uncertainty region P61 overlaps the colors of the second object and the third object. That is, the overlapping color of the indeterminate area P61 where the labeling color of the second object and the labeling color of the third object are overlapped. At this time, the processor 130 calculates the first area ratio based on the number of pixels of the confirmed area P62 as the second object and the number of pixels of the second object area labeled in the previous frame in the proximity object area, The first area ratio is calculated based on the number of pixels of the confirmed area P63 as the third object and the number of pixels of the third object area labeled in the previous frame. Then, the processor 130 compares the calculated two first area ratios to select individual objects having smaller values, and labels the overlapping indeterminate areas P61 with the labeling colors of the selected individual objects. If the value of the first area ratio corresponding to the third object is smaller than the ratio of the first area corresponding to the second object in FIG. 6, the overlapped uncertainty area P61 can be labeled with the color of the third object have.

그런 다음, 프로세서(130)는 이전 프레임에서 레이블링된 객체 영역의 픽셀 수와, 현재 프레임의 근접 개체 영역 내 구분된 객체의 픽셀 수를 계산하여 그 영역 비율(이하, “제 2 영역 비율”이라고 지칭함)을 계산한다. 이때, 현재 프레임의 근접 개체 영역 내 구분된 객체는 제 1 영역 비율에 기초하여 새로 레이블링된 영역을 포함한다.Then, the processor 130 calculates the number of pixels of the object region labeled in the previous frame and the number of pixels of the separated object in the proximity object region of the current frame, and calculates the area ratio (hereinafter referred to as &quot; second area ratio &quot; ). At this time, the separated objects in the proximity object area of the current frame include the newly labeled area based on the first area ratio.

<수학식 2>&Quot; (2) &quot;

Figure 112016047945516-pat00002
Figure 112016047945516-pat00002

수학식 2와 같이, 제 2 영역 비율은 현재 프레임에 대해 새롭게 레이블링을 처리한 결과에 따른 객체 영역의 픽셀 수를 이전 프레임에서 레이블링된 객체 영역의 픽셀 수로 나누어 산출할 수 있다. 이때, 새롭게 레이블링 처리한 결과는, 근접 개체 영역 내 구분된 객체 별로 새로 레이블링된 영역과 원래의 확정 영역을 합한 전체 영역에 대한 레이블링 결과를 의미한다.As shown in Equation (2), the second region ratio can be calculated by dividing the number of pixels of the object region according to the result of newly labeling the current frame by the number of pixels of the object region labeled in the previous frame. In this case, the result of the new labeling process is the labeling result for the entire area including the newly labeled area and the original confirmed area for each of the classified objects in the proximity object area.

다음으로, 프로세서(130)는 ‘겹침이 없는 불확정 영역’에 대한 영역 확장 및 ‘겹침이 있는 불확정 영역’에 대한 레이블링 처리까지 완료된 투영 결과 프레임에서, 각 객체 별로 제 2 영역 비율의 값이 소정의 임계값을 초과 또는 미만인지 여부를 확인하여 근접 개체 영역 내 구분된 객체 별 영역을 재조정한다.Next, the processor 130 determines whether or not the value of the second area ratio for each object is equal to or smaller than a predetermined value in the projection result frame in which the area expansion for the 'indeterminate area without overlap' and the labeling process for the ' And checks whether the threshold value is over or under to readjust the separated object-specific area within the proximity object area.

이때, 프로세서(130)는 근접 개체 영역 내 구분된 객체들 중 제 2 영역 비율이 임계값을 초과하는 객체가 존재할 경우, 나머지 객체 중 제 2 영역 비율이 임계값보다 낮은 객체 중 가장 낮은 비율을 갖는 객체를 선택한다. 그리고 프로세서(130)는 선택된 객체(즉, 가장 낮은 제 2 영역 비율을 갖는 객체)의 인접 픽셀의 색상을 재조정한다.At this time, when there is an object whose ratio of the second area among the objects in the proximity object area exceeds the threshold value, the processor 130 has the lowest ratio among the objects in which the second area ratio is lower than the threshold value Select the object. The processor 130 then rescales the adjacent pixels of the selected object (i.e., the object with the lowest second area ratio).

프로세서(130)는 근접 객체 영역 내 구분된 객체들의 제 2 영역 비율이 기설정된 정상 범위 내로 도달할 때까지 객체들에 대한 색상 재조정 처리를 반복하여 개별 객체의 영역을 확정한다.The processor 130 determines the area of the individual object by repeating the color rebalancing process on the objects until the ratio of the second area of the objects in the proximity object area reaches the predetermined normal range.

도 7은 본 발명의 일 실시예에 따른 하나의 객체로 인식된 관심 영역이 개별 객체로 분리되어 표시된 모식도이다.FIG. 7 is a conceptual diagram showing regions of interest recognized as one object and separated into individual objects according to an embodiment of the present invention. Referring to FIG.

도 7에 도시한 바와 같이, 앞서 도 2 내지 도 6을 통해 설명한 과정을 처리한 결과로서 근접 객체 영역 내 객체 별 영역이 모두 확정되어 개별 객체로 분리된 최종 결과 프레임을 획득할 수 있다.As shown in FIG. 7, as a result of processing described above with reference to FIG. 2 to FIG. 6, all the object-specific regions in the near object region are determined and a final result frame separated into individual objects can be obtained.

한편, 프로세서(130)는 분리된 개체들을 포함하는 축사 내 복수의 개체들에 대해 개별적으로 트래킹을 처리할 수 있다. 예를 들어, 프로세서(130)는 각 개체 별로 현재 위치 정보와 직전 위치 정보 간의 유클라디안 거리를 산출하여, 개체를 이전 위치에서의 식별 정보와 대응되도록 색인화 처리할 수 있다. 이를 통해, 여러 개의 개체가 동시에 움직이는 상황에서도 개체 겹침(즉, 근접 개체)을 분석 및 해결하여, 한 영상 내에서 개별 개체에 대한 트래킹을 동시에 처리할 수 있다.On the other hand, the processor 130 may process the tracking separately for a plurality of entities in the house that contain separate entities. For example, the processor 130 may calculate the Euclidean distance between the current location information and the previous location information for each entity, and may index the entity so as to correspond to the identification information at the previous location. Through this, it is possible to analyze and solve object overlapping (that is, proximity object) even in a situation where several objects move at the same time, and to simultaneously process tracking of individual objects within one image.

이하, 도 8을 참조하여 본 발명의 일 실시예에 따른 축사 근접 개체 탐지 장치를 통한 근접 개체 탐지 방법에 대해서 상세히 설명하도록 한다.Hereinafter, referring to FIG. 8, a method of detecting a nearby object using the apparatus for detecting a nearby object according to an embodiment of the present invention will be described in detail.

먼저, 축사 내부를 촬영한 카메라로부터 촬영 영상을 획득하여 개체를 탐색하고(S801), 복수의 개체가 하나로 인식되는 근접 개체가 발생하였는지 여부를 판단한다(S802).In operation S801, a photographed image is acquired from a camera photographed inside the housing, and a proximity object in which a plurality of objects are recognized as one is determined in operation S802.

이처럼, 근접 개체 발생 여부를 판단하는 절차는 아래에서 설명할 영상 이진화를 통해 처리되는 것도 가능하며, 별도의 영상 처리를 통해 근접 개체 발생을 검출하는 것도 가능하다.As described above, the procedure for determining whether or not a nearby object is generated can be processed through image binarization, which will be described below, and it is also possible to detect occurrence of a nearby object through a separate image processing.

근접 개체 영역이 발생된 것으로 판단된 현재 프레임에 대해, HSV 값을 조정하여 그림자 및 잡영 등을 제거한다(S803).In step S803, the HSV value is adjusted for the current frame, which is determined to have generated the proximity object area, to remove shadow, joy and the like.

즉, 현재 프레임을 이진화하여 객체와 배경을 분리한다.That is, the current frame is binarized to separate the object and the background.

다음으로, 이진화 영상 프레임에 대해 근접 개체 영역을 관심 영역으로 지정한다(S804).Next, the neighboring object region is designated as a region of interest for the binarized image frame (S804).

이때, 관심 영역이 설정된 현재 프레임과, 현재 프레임 이전의 프레임(즉, 근접 개체가 발생되기 이전 프레임)을 매칭하여 임시 저장한다. 이전 프레임은 각각의 객체를 레이블링 처리하여, 서로 상이한 객체들을 식별 가능하도록 구분된 상태이다. At this time, the current frame in which the region of interest is set and the frame before the current frame (i.e., the frame before the proximity entity is generated) are matched and temporarily stored. The previous frame is a state in which each object is labeled so that different objects can be identified.

그런 다음, 이전 프레임을 복사하여 형태학 연산 처리를 수행할 임시 프레임을 생성하고, 생성된 임시 프레임에 대해 기설정된 형태학 연산 처리를 수행한다 (S805).Then, a previous frame is copied to generate a temporary frame for performing the morphological operation process, and a predetermined morphological operation process is performed on the generated temporary frame (S805).

이때, 형태학 연산 처리로서, 열림 연산, 침식 연산 및 팽창 연산을 수행한다. 이러한 형태학 연산 처리 과정은 앞서 도 4 내지 도 6에서 설명한 처리와 대응된다. At this time, as the morphological operation processing, the open operation, the erosion operation and the expansion operation are performed. This morphological operation process corresponds to the process described in Figs. 4 to 6 above.

다음으로, 형태학 연산 처리된 임시 프레임을 현재 프레임에 투영하여, 이전 프레임의 개별 객체들과 현재 프레임의 근접 개체 영역을 오버랩한다(S806).Next, the morphological operation processed temporary frame is projected on the current frame, and the individual objects of the previous frame and the proximate object region of the current frame are overlapped (S806).

이와 같은 오버랩을 처리한 새로운 프레임(즉, 투영 결과 프레임) 상에는 복수의 영역이 구분되며, 구분된 영역 중 겹침이 없는 불확정 영역이 존재하는지 여부를 판단한다(S807).A plurality of regions are distinguished on a new frame (i.e., a projection result frame) that has processed the overlap, and it is determined whether there is an uncertain region having no overlap among the divided regions (S807).

구체적으로, 도 6에서와 같이, 현재 프레임의 근접 개체 영역과 이전 프레임의 객체 별 영역을 오버랩한 결과에 따라 투영 결과 프레임에는, 현재 프레임의 근접 개체 영역 중 이전 프레임의 객체 별 영역 중 어느 하나와만 겹침이 발생되어 객체를 구분할 수 있는 “확정 영역”, 현재 프레임의 근접 개체 영역과 이전 프레임의 객체 별 영역 중 둘 이상이 겹침이 발생되어 해당 객체를 확실히 알 수 없는 “겹침이 있는 불확정 영역”, 및 현재 프레임의 근접 개체 영역 중 이전 프레임의 객체 영역과 겹침이 발생되지 않은 “겹침이 없는 불확정 영역”이 포함된다.6, depending on the result of overlapping the near object region of the current frame and the object region of the previous frame, the projection result frame may include one of the object regions of the previous frame among the proximity object regions of the current frame, "Confined area" in which overlapping occurs so that objects can be distinguished from each other, "overlapping indeterminate areas" in which two or more of the near object areas of the current frame and the object areas of the previous frame overlap, And an &quot; overlap-free indeterminate area &quot; in which overlapping with the object area of the previous frame of the proximity object area of the current frame does not occur.

판단 결과, 겹침이 없는 불확정 영역이 존재할 경우 해당 영역에 대해 영역 확장 알고리즘을 적용하여 레이블링 처리한다(S808).As a result of the determination, if there is an indeterminate area having no overlapping, the area extension algorithm is applied to the area to perform labeling processing (S808).

이에 따라, 겹침이 없는 불확정 영역의 픽셀들은 가장 적합한 객체(즉, 인접 픽셀)의 색상과 동일한 색상으로 채우기 처리된다.Accordingly, the pixels of the indeterminate region without overlap are filled with the same color as the color of the most suitable object (i.e., adjacent pixels).

다음으로, 투영 결과 프레임에 대해 현재 프레임의 근접 개체 영역 내 구분된 객체 별 확정 영역과 이전 프레임에서 레이블링된 객체 별 확정 영역에 기초하여 제 1 영역 비율을 계산한다(S809).Next, in step S809, the first area ratio is calculated on the basis of the determined area for each object in the proximity object area of the current frame and the final area for each object labeled in the previous frame with respect to the projection result frame.

이때, 근접 개체 영역 내 구분된 객체 별 확정 영역은 영역 확장 알고리즘이 적용된 영역을 포함한다.At this time, the determined area for each object in the proximity object area includes an area to which the area expansion algorithm is applied.

앞서 설명한 단계(S807)에서의 판단 결과, 겹침이 없는 불확정 영역이 존재하지 않을 경우에는 곧바로 제 1 영역 비율을 계산하는 단계(S809)를 처리한다.As a result of the judgment in the above-described step S807, if there is no indeterminate area without overlapping, the step S809 of calculating the first area ratio is executed immediately.

그런 다음, 투영된 결과 프레임 상에 겹침이 있는 불확정 영역이 존재하는지 여부를 판단한다(S810).Then, it is determined whether there is an overlapped uncertainty area on the projected result frame (S810).

겹침이 있는 불확정 영역이 존재할 경우, 해당 영역에 대해 겹침을 유발하는 객체 영역 중 제 1 영역 비율이 가장 낮은 객체를 선택하여 해당 객체에 대응되도록 레이블링한다(S811).If there is an overlapping uncertainty region, the object having the lowest ratio of the first region among the object regions causing overlapping is selected and labeled so as to correspond to the object (S811).

다음으로, 현재 프레임에서 레이블링된 객체의 영역과 이전 프레임에서 레이블링된 객체의 영역에 기초하여 제 2 영역 비율을 계산한다(S812).Next, the second area ratio is calculated based on the area of the object labeled in the current frame and the area of the object labeled in the previous frame (S812).

이때, 현재 프레임에서 레이블링된 객체의 영역은, 근접 개체 영역 내 구분된 객체의 확정 영역, 영역 확장 알고리즘에 의해 채워진 영역, 및 제 1 영역 비율에 기초하여 새롭게 레이블링된 영역을 포함한다.At this time, the area of the object labeled in the current frame includes the confirmed area of the separated object in the proximity object area, the area filled by the area extension algorithm, and the newly labeled area based on the first area ratio.

상기 단계(S810)의 판단 결과, 겹침이 있는 불확정 영역이 존재하지 않을 경우 곧바로 제 2 영역 비율을 계산하는 단계(S812)를 처리한다.If it is determined in step S810 that there is no overlapped uncertainty area, a step S812 of calculating the second area ratio is performed.

그런 다음, 제 2 영역 비율을 계산한 결과에 따라, 근접 개체 영역 내 구분된 객체들의 제 2 영역 비율이 기설정된 임계값을 기준으로 정상 범위 내 포함되는지 여부를 판단한다(S813).Then, in step S813, it is determined whether the ratio of the second area of the classified objects in the proximity object area is included in the normal range based on the preset threshold value, according to the result of calculating the second area ratio.

제 2 영역 비율이 임계값을 초과하는 객체 영역이 존재하는 경우, 제 2 영역 비율이 상대적으로 낮은 객체 영역의 색상으로 해당 영역의 색상을 재조정한다(S814).If there is an object area in which the ratio of the second area exceeds the threshold value, the color of the corresponding area is readjusted to the color of the object area in which the ratio of the second area is relatively low (S814).

즉, 근접 개체 영역 내 구분된 객체들 중 제 2 영역 비율이 임계값을 초과하는 객체가 존재할 경우, 나머지 객체 중에서 제 2 영역 비율이 임계값보다 낮되 가장 낮은 비율을 갖는 객체를 선택한다. 그리고 선택된 객체(즉, 가장 낮은 제 2 영역 비율을 갖는 객체)의 인접 픽셀의 색상을 재조정한다.That is, when there is an object whose ratio of the second area exceeds the threshold value among the objects in the proximity object area, the second area ratio is lower than the threshold value and the object having the lowest ratio is selected. And reselects the adjacent pixels of the selected object (i.e., the object having the lowest second area ratio).

이때, 단계 (S812) 내지 (S814)는, 근접 개체 영역 내 구분된 객체들의 제 2 영역 비율이 기설정된 임계값을 기준으로 정상 범위 내 포함될 때까지 반복된다.In this case, steps S812 to S814 are repeated until the ratio of the second area of the classified objects in the proximity entity area is included in the normal range based on the predetermined threshold value.

단계 (S813)의 판단 결과, 근접 개체 영역 내 구분된 객체들의 제 2 영역 비율이 기설정된 임계값을 기준으로 정상 범위 내 포함될 경우, 근접 객체 영역 내 구분된 개별 객체의 영역을 최종적으로 분리하여 표시한다(S815).If it is determined in step S813 that the ratio of the second area of the objects in the proximity object area is within the normal range based on the predetermined threshold value, (S815).

이상에서 설명한 본 발명의 일 실시예에 따른 축사 근접 개체 탐지 방법은, 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.The above-described method of detecting a housing proximity object according to an embodiment of the present invention can also be implemented in the form of a recording medium including instructions executable by a computer such as a program module executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. The computer readable medium may also include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

100: 축사 내 근접 개체 탐지 장치
110: 카메라부
120: 메모리
130: 프로세서
100: Near object detection device in house
110:
120: Memory
130: Processor

Claims (12)

축사 근접 개체 탐지 장치에 있어서,
축사 내부를 촬영하는 카메라부;
근접 개체 탐지 프로그램이 저장된 메모리; 및
상기 메모리에 저장된 근접 개체 탐지 프로그램을 실행하는 프로세서를 포함하며,
상기 프로세서는 상기 프로그램의 실행에 응답하여, 상기 카메라부를 통해 촬영된 영상에서 복수의 개체가 근접하여 하나로 인식된 근접 개체 영역을 관심 영역으로 설정하고, 상기 관심 영역이 설정된 제 1 프레임의 이전 프레임인 제 2 프레임에 대해 형태학 연산(Morphological Operation) 처리하고, 상기 형태학 연산 처리된 제 2 프레임을 상기 제 1 프레임에 투영하고, 상기 투영의 결과에 따른 제 3 프레임 상에서 상기 관심 영역에 대해 상기 제 2 프레임의 객체 별 영역과의 겹침 여부에 기초하여 상기 관심 영역 내 구분된 영역들에 대한 영역 비율을 계산하고, 상기 영역 비율에 기초하여 상기 관심 영역 내 구분된 객체 별 영역을 조정하여 개별 개체를 분리 및 표시하고,
상기 제 3 프레임 상에서, 상기 관심 영역에 대한 상기 제 2 프레임의 객체 별 영역과의 오버랩 여부에 기초하여, 상기 관심 영역에서 상기 제 2 프레임의 객체 별 영역 중 어느 하나와 오버랩된 제 1 영역, 둘 이상과 오버랩된 제 2 영역, 및 오버랩되지 않은 제 3 영역을 구분하는 축사 근접 개체 탐지 장치.
A device for detecting proximity to a housing nearby,
A camera section for photographing the interior of the housing;
A memory in which a proximity object detection program is stored; And
And a processor for executing a proximity object detection program stored in the memory,
Wherein the processor sets, in response to the execution of the program, a proximity object area in which a plurality of objects are recognized as being close to one another in an image photographed through the camera section, A morphological operation process is performed on the second frame, a morphological operation-processed second frame is projected on the first frame, and on the third frame according to a result of the projection, Based on whether or not an individual object is overlapped with an object-specific region of the object region, and adjusting an area of each object in the region of interest based on the region ratio, Display,
A first region overlapping with one of the object-specific regions of the second frame in the region of interest, based on whether or not the region of interest overlaps with the region of the object of the second frame with respect to the region of interest on the third frame; And a second overlapping region, and a third overlapping region.
삭제delete 제 1 항에 있어서,
상기 프로세서는,
기설정된 영역 확장 알고리즘을 적용하여 상기 제 3 영역 내 픽셀들에 대해 인접 픽셀의 값을 적용하여 픽셀 값을 변환하고,
상기 제 1 영역과 상기 제 2 프레임의 객체 별 영역 간의 영역 비율에 기초하여 상기 제 2 영역 내 픽셀 값을 변환하고,
상기 제 2 영역 및 상기 제 3 영역의 픽셀 값이 변환된 결과까지 반영된 상기 관심 영역 내 구분된 영역 별로 상기 제 2 프레임의 객체 별 영역과의 영역 비율이 기설정된 영역 비율 범위 내 포함될 경우 개별 개체로 분리 처리하는 축사 근접 개체 탐지 장치.
The method according to claim 1,
The processor comprising:
Applying a value of an adjacent pixel to the pixels in the third area by applying a preset area expansion algorithm,
Transforming the pixel value in the second area based on an area ratio between the first area and the object-specific area of the second frame,
When the ratio of the region of the second frame to the region of the object of the second frame is within a predetermined region ratio range, the region of the region of interest in the second region including the pixel values of the second region and the third region, Detecting device for close proximity of a house to be separated.
제 1 항에 있어서,
상기 프로세서는,
상기 제 2 프레임을 복사한 임시 프레임에 대해 상기 형태학 연산 중 열림 연산, 일회 이상의 침식 연산, 및 일회 이상의 팽창 연산을 처리한 후 상기 제 1 프레임에 투영하는 축사 근접 개체 탐지 장치.
The method according to claim 1,
The processor comprising:
Wherein the processing unit performs the open operation, the erase operation, and the at least one expansion operation during the morphological operation for the temporary frame in which the second frame is copied, and projects the temporary frame to the first frame.
제 1 항에 있어서,
상기 프로세서는
상기 촬영된 영상의 일 프레임에 대해 HSV(Hue Saturation Value) 값을 설정하고, 상기 설정의 결과에 따른 영상을 이진화 처리하여 상기 개체 및 노이즈를 분리하는 축사 근접 개체 탐지 장치.
The method according to claim 1,
The processor
And a HSV (Hue Saturation Value) value for one frame of the photographed image, and binarizes the image according to a result of the setting to separate the object and the noise.
제 1 항에 있어서,
상기 프로세서는,
상기 제 2 프레임 상의 개별 객체들에 대해 레이블링 처리를 수행하는 축사 근접 개체 탐지 장치.
The method according to claim 1,
The processor comprising:
And performs a labeling process on the individual objects on the second frame.
축사 근접 개체 탐지 장치를 통한 근접 개체 탐지 방법에 있어서,
카메라부를 통해 축사 내부가 촬영된 영상에서 복수의 개체가 근접하여 하나로 인식된 근접 개체 영역을 관심 영역으로 설정하는 단계;
상기 관심 영역이 설정된 제 1 프레임의 이전 프레임인 제 2 프레임에 대해 형태학 연산(Morphological Operation)을 처리하는 단계;
상기 형태학 연산 처리된 제 2 프레임을 상기 제 1 프레임에 투영하는 단계;
상기 투영의 결과에 따른 제 3 프레임 상에서, 상기 관심 영역에 대해 상기 제 2 프레임의 객체 별 영역과의 겹침 여부에 기초하여, 상기 관심 영역 내 구분된 영역들에 대한 영역 비율을 계산하는 단계; 및
상기 영역 비율에 기초하여 상기 관심 영역 내 구분된 객체 별 영역을 조정하여 개별 개체를 분리하여 표시하는 단계를 포함하고,
상기 관심 영역 내 구분된 영역들은,
상기 제 3 프레임 상에서, 상기 관심 영역에 대한 상기 제 2 프레임의 객체 별 영역과의 오버랩 여부에 기초하여, 상기 관심 영역에서 상기 제 2 프레임의 객체 별 영역 중 어느 하나와 오버랩된 제 1 영역, 둘 이상과 오버랩된 제 2 영역, 및 오버랩되지 않은 제 3 영역으로 구분되는 축사 근접 개체 탐지 방법.
A proximity object detection method using a proximity object detection device,
Setting a proximity object area in which a plurality of objects are proximate and recognized as one in an image captured inside the housing through a camera unit;
Processing a morphological operation for a second frame that is a previous frame of the first frame in which the ROI is set;
Projecting the morphologically processed second frame onto the first frame;
Calculating a region ratio for the regions delimited within the region of interest based on whether the region of interest overlaps with the object-specific region of the second frame over the third frame in accordance with a result of the projection; And
And separating and displaying the individual objects by adjusting regions separated by the object within the region of interest based on the region ratios,
The regions of interest,
A first region overlapping with one of the object-specific regions of the second frame in the region of interest, based on whether or not the region of interest overlaps with the region of the object of the second frame with respect to the region of interest on the third frame; A second region overlapped with the second region, and a third region that is not overlapped.
삭제delete 제 7 항에 있어서,
상기 관심 영역 내 구분된 객체 별 영역을 조정하여 개별 개체를 분리하여 표시하는 단계는,
기설정된 영역 확장 알고리즘을 적용하여 상기 제 3 영역 내 픽셀들에 대해 인접 픽셀의 값을 적용하여 픽셀 값을 변환하는 단계;
상기 제 1 영역과 상기 제 2 프레임의 객체 별 영역 간의 영역 비율에 기초하여 상기 제 2 영역 내 픽셀 값을 변환하는 단계; 및
상기 제 2 영역 및 상기 제 3 영역의 픽셀 값이 변환된 결과까지 반영된 상기 관심 영역 내 구분된 영역 별로 상기 제 2 프레임의 객체 별 영역과의 영역 비율이 기설정된 영역 비율 범위 내 포함될 경우 개별 개체로 분리 처리하는 단계를 포함하는 축사 근접 개체 탐지 방법.
8. The method of claim 7,
Wherein the step of separating and displaying the individual objects by adjusting the divided regions of the objects in the region of interest comprises:
Transforming a pixel value by applying a value of an adjacent pixel to the pixels in the third region by applying a predetermined region expansion algorithm;
Transforming pixel values in the second region based on an area ratio between the first region and an object-by-object region of the second frame; And
When the ratio of the region of the second frame to the region of the object of the second frame is within a predetermined region ratio range, the region of the region of interest in the second region including the pixel values of the second region and the third region, And separating and processing the housing close-up object.
제 7 항에 있어서,
상기 제 2 프레임에 대해 형태학 연산을 처리하는 단계는,
상기 제 2 프레임을 복사한 임시 프레임에 대해 상기 형태학 연산 중 열림 연산, 일회 이상의 침식 연산, 및 일회 이상의 팽창 연산을 처리하되,
형태학 연산이 처리된 상기 임시 프레임을 상기 제 1 프레임에 투영하는 축사 근접 개체 탐지 방법.
8. The method of claim 7,
Wherein processing the morphological operation for the second frame comprises:
Processing the erase operation, one or more erosion operations, and one or more expansion operations during the morphological operation on the temporary frame from which the second frame was copied,
And projecting the temporal frame processed with the morphological operation to the first frame.
제 7 항에 있어서,
상기 근접 개체 영역을 관심 영역으로 설정하는 단계는,
상기 촬영된 영상의 일 프레임에 대해 HSV(Hue Saturation Value) 값을 설정하는 단계;
상기 설정의 결과에 따른 영상을 이진화 처리하여 상기 개체 및 노이즈를 분리하는 단계; 및
상기 이진화 처리된 영상으로부터 복수의 개체가 근접되어 하나로 인식된 영역을 검출하여 관심 영역으로 설정하는 단계를 포함하는 축사 근접 개체 탐지 방법.
8. The method of claim 7,
The step of setting the proximity entity region as a region of interest comprises:
Setting a HSV (Hue Saturation Value) value for one frame of the photographed image;
Binarizing an image according to a result of the setting to separate the object and noise; And
Detecting an area in which the plurality of entities are adjacent to one another and recognizing the binarized image as a region of interest; and setting the binarized object as a region of interest.
제 7 항에 있어서,
상기 제 2 프레임을 상기 제 1 프레임에 투영하는 단계 이전에,
상기 제 2 프레임 상의 개별 개체들에 대해 레이블링 처리를 수행하는 단계를 더 포함하는 축사 근접 개체 탐지 방법.
8. The method of claim 7,
Prior to projecting the second frame to the first frame,
Further comprising: performing labeling processing on individual entities on the second frame.
KR1020160061211A 2016-05-19 2016-05-19 Apparatus and method for detecting proximal entity in pen KR101827114B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160061211A KR101827114B1 (en) 2016-05-19 2016-05-19 Apparatus and method for detecting proximal entity in pen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160061211A KR101827114B1 (en) 2016-05-19 2016-05-19 Apparatus and method for detecting proximal entity in pen

Publications (2)

Publication Number Publication Date
KR20170130706A KR20170130706A (en) 2017-11-29
KR101827114B1 true KR101827114B1 (en) 2018-03-22

Family

ID=60811606

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160061211A KR101827114B1 (en) 2016-05-19 2016-05-19 Apparatus and method for detecting proximal entity in pen

Country Status (1)

Country Link
KR (1) KR101827114B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102019301B1 (en) * 2018-04-24 2019-09-06 군산대학교 산학협력단 A video surveillance apparatus for detecting agro-livestock theft and method thereof
KR102479055B1 (en) 2020-08-13 2022-12-20 한국전자통신연구원 System and method for monitoring livestock using egde information

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5243449B2 (en) * 2007-01-04 2013-07-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Apparatus, method, and computer program for generating corrected image of region of interest from acquired projection data

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5243449B2 (en) * 2007-01-04 2013-07-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Apparatus, method, and computer program for generating corrected image of region of interest from acquired projection data

Also Published As

Publication number Publication date
KR20170130706A (en) 2017-11-29

Similar Documents

Publication Publication Date Title
KR101971866B1 (en) Method and apparatus for detecting object in moving image and storage medium storing program thereof
US9710716B2 (en) Computer vision pipeline and methods for detection of specified moving objects
US8565484B2 (en) Forest fire smoke detection method using random forest classification
US20190050694A1 (en) Control method, non-transitory computer-readable storage medium for storing control program, and control apparatus
KR101550474B1 (en) Method and device for finding and tracking pairs of eyes
KR100879623B1 (en) Automated wide area surveillance system using ptz camera and method therefor
US20210342639A1 (en) Product onboarding machine
US7982774B2 (en) Image processing apparatus and image processing method
US10692225B2 (en) System and method for detecting moving object in an image
JP2000011133A (en) Device and method for detecting moving object
US10762372B2 (en) Image processing apparatus and control method therefor
KR101130963B1 (en) Apparatus and method for tracking non-rigid object based on shape and feature information
JP5371040B2 (en) Moving object tracking device, moving object tracking method, and moving object tracking program
KR101827113B1 (en) Apparatus and method for detecting proximal entity in pen
US20180300579A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US10614336B2 (en) Method, system, and computer-readable recording medium for image-based object tracking
Schiopu et al. Pothole detection and tracking in car video sequence
KR101827114B1 (en) Apparatus and method for detecting proximal entity in pen
JP7125843B2 (en) Fault detection system
JP7074174B2 (en) Discriminator learning device, discriminator learning method and computer program
KR101793790B1 (en) Apparatus and method for detecting entity in pen
KR101729536B1 (en) Apparatus and Method of Detecting Moving Object in Image
KR101595334B1 (en) Method and apparatus for movement trajectory tracking of moving object on animal farm
KR102161212B1 (en) System and method for motion detecting
JP5128454B2 (en) Wrinkle detection device, wrinkle detection method and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant