KR101827113B1 - 축사 근접 개체 탐지 장치 및 방법 - Google Patents

축사 근접 개체 탐지 장치 및 방법 Download PDF

Info

Publication number
KR101827113B1
KR101827113B1 KR1020160060860A KR20160060860A KR101827113B1 KR 101827113 B1 KR101827113 B1 KR 101827113B1 KR 1020160060860 A KR1020160060860 A KR 1020160060860A KR 20160060860 A KR20160060860 A KR 20160060860A KR 101827113 B1 KR101827113 B1 KR 101827113B1
Authority
KR
South Korea
Prior art keywords
frame
area
image
region
individual
Prior art date
Application number
KR1020160060860A
Other languages
English (en)
Other versions
KR20170130161A (ko
Inventor
정용화
박대희
사재원
김희곤
이상진
주미소
한승엽
Original Assignee
고려대학교 세종산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 세종산학협력단 filed Critical 고려대학교 세종산학협력단
Priority to KR1020160060860A priority Critical patent/KR101827113B1/ko
Publication of KR20170130161A publication Critical patent/KR20170130161A/ko
Application granted granted Critical
Publication of KR101827113B1 publication Critical patent/KR101827113B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • A01K29/005Monitoring or measuring activity, e.g. detecting heat or mating
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K1/00Housing animals; Equipment therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Animal Husbandry (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Zoology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

축사 내 근접 개체 탐지 시, 축사 내부를 촬영하는 카메라부를 통해 촬영된 영상으로부터 복수의 개체가 근접하여 하나로 인식되는 영역을 관심 영역으로 설정하고, 관심 영역이 설정된 제 1 프레임에 제 1 프레임의 이전 프레임인 제 2 프레임을 투영하고, 투영의 결과에 따른 프레임 상에서 제 2 프레임 상의 개별 개체의 영역을 관심 영역의 위치로 픽셀 정렬 처리하며, 픽셀 정렬의 결과 영상을 통해 관심 영역 내 복수의 개체를 개별 개체로 분리하여 표시한다.

Description

축사 근접 개체 탐지 장치 및 방법{APPARATUS AND METHOD FOR DETECTING PROXIMAL ENTITY IN PEN}
본 발명은 픽셀 정렬 처리에 기반하여 축사 내의 근접 개체를 개별 개체로 구분하는 개체 탐지 장치 및 방법에 관한 것이다.
소수의 관리자가 많은 개체를 관리해야하는 축사·돈사의 특성상, 현실적으로 가축의 행동 특성을 실시간으로 파악하는 것은 매우 어렵다. 이에 따라, 최근에는 소규모 농장에서도 정보통신기술(Information Communication Technology, ICT)을 기반으로 저비용 구축이 가능한 개체 탐지 시스템에 대한 연구가 활발히 진행되고 있다. 그중에서도 카메라 센서를 통해 지속적으로 가축의 행동을 추적 및 분석하는 개체 탐지 시스템이 개발되고 있다.
기존에는 다양한 영상 처리 기법을 사용하여 축사 내 이상 상황을 탐지하는 개체 탐지 기술이 제안되었다. 그 중 차영상(Frame Difference) 기법을 이용한 개체 탐지 방식은, 이전 프레임(또는 배경 프레임)과 현재 프레임 간의 픽셀 변화를 계산하고 움직임을 탐지하는 기법이다. 이러한 차영상 기법에서는 움직임이 탐지된 픽셀을 이동하는 개체로서 구분하고, 구분된 이동 개체 별로 번호를 부여하여 이를 통해 움직임을 추적할 수 있다.
이와 관련하여, 대한민국 공개특허 제 10-1998-031927 호(발명의 명칭: 이동 물체의 위치를 경보하는 감시 카메라 및 감시 방법)는, 이동 물체의 거리에 따라 렌즈 상태를 조절하기 위한 렌즈 상태 조절부와, 소정 시간 간격을 갖는 감시 영역에 대한 제1 및 제2영상 데이타를 각각 저장하기 위한 저장부와, 저장부로부터 입력되는 제1 및 제2영상 데이타의 차영상을 계산하고, 계산된 차영상의 크기에 따라 이동 물체 여부를 검출하고, 그 검출 여부에 따라 이동 물체 검출신호를 발생하는 이동 물체 검출부를 구비하여, 이동 물체의 탐지 거리에 따라 구별 가능한 경보음을 발생시키는 감시 카메라 및 감시 방법을 개시하고 있다.
그러나 이러한 차영상 기법을 이용한 개체 탐지 기술은 프레임 단위로 개체 개별의 행동을 탐지하는데 효과적이지만, 지속적인 개체 추적 시에는 개체 간 겹침 문제를 해결할 수 없다는 한계가 있었다. 또한, 차영상 기법 외의 다른 카메라 센서를 이용한 방식으로는 동영상 카메라를 사용하는 개체 탐지 기법이 있다. 이러한 동영상 카메라의 경우 날씨와 시간에 따라서 달라지는 빛의 영향을 많이 받아, 개체에 대한 지속적인 모니터링 시 추출하는 특징 정보들이 왜곡될 수 있어 개체 간 겹침 문제에 취약하다는 문제가 있었다.
따라서, 이상의 문제점을 극복하여 여럿의 근접한 개체들을 개별적으로 분리할 수 있으며, 분리된 개별 개체 별 움직임을 지속적으로 정확히 탐지 및 추적할 수 있는 개체 탐지 기술이 필요하다.
본 발명의 일 실시예는 축사 내에서 서로 근접하여 하나의 개체로 인식되는 근접 개체 영역을 검출하여 복수의 개체를 개별 개체로 분리할 수 있는 축사 근접 개체 탐지 장치 및 방법을 제공하고자 한다.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상기와 같은 기술적 과제를 달성하기 위한 본 발명의 일 측면에 따른 축사 근접 개체 탐지 장치는, 축사 내부를 촬영하는 카메라부; 근접 개체 탐지 프로그램이 저장된 메모리; 및 상기 메모리에 저장된 근접 개체 탐지 프로그램을 실행하는 프로세서를 포함하며, 상기 프로세서는 상기 프로그램의 실행에 응답하여, 상기 카메라부를 통해 촬영된 영상으로부터 복수의 개체가 근접하여 하나로 인식되는 영역을 관심 영역으로 설정하고, 상기 관심 영역이 설정된 제 1 프레임에 이전 프레임인 제 2 프레임을 투영하여 상기 제 2 프레임 상의 개별 개체의 영역을 상기 관심 영역의 위치로 픽셀 정렬 처리하고, 상기 픽셀 정렬의 결과 영상을 통해 상기 관심 영역 내 복수의 개체를 개별 개체로 분리하여 표시한다.
본 발명의 다른 측면에 따른 축사 근접 개체 탐지 장치를 통한 근접 개체 탐지 방법은, 축사 내부를 촬영하는 카메라부를 통해 촬영된 영상으로부터 복수의 개체가 근접하여 하나로 인식되는 영역을 관심 영역으로 설정하는 단계; 상기 관심 영역이 설정된 제 1 프레임에 상기 제 1 프레임의 이전 프레임인 제 2 프레임을 투영하는 단계; 상기 투영의 결과에 따른 프레임 상에서 상기 제 2 프레임 상의 개별 개체의 영역을 상기 관심 영역의 위치로 픽셀 정렬 처리하는 단계; 및 상기 픽셀 정렬의 결과 영상을 통해 상기 관심 영역 내 복수의 개체를 개별 개체로 분리하여 표시하는 단계를 포함한다.
전술한 본 발명의 과제 해결 수단에 의하면, 밀집 사육 환경인 축사·돈사 내에서 개체 간 겹침을 정확하게 탐지하여 개별 개체를 구별 및 추적할 수 있다. 즉, 탐지 영상 내에서 둘 이상의 개체들이 근접하여 하나의 개체로 인식되더라도 이를 개별적으로 분리할 수 있으므로 모든 개체에 대한 지속적인 개별 관리 및 추적이 가능하여 효율적이다.
도 1은 본 발명의 일 실시예에 따른 축사 근접 개체 탐지 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 근접 개체가 표시된 이진화 영상의 일례이다.
도 3은 본 발명의 일 실시예에 따른 개체가 근접하기 이전의 영상에서의 개별 객체를 레이블링 처리한 영상의 일례이다.
도 4는 본 발명의 일 실시예에 따른 투영 결과 영상에서의 객체 별 중복 영역 및 비중복 영역의 중심점이 표시된 모식도이다.
도 5는 본 발명의 일 실시예에 따른 투영 결과 영상에서의 객체 별 픽셀 정렬 처리 결과가 표시된 모식도이다.
도 6은 본 발명의 일 실시예에 따른 근접 개체를 개별 개체로 분리한 결과의 모식도이다.
도 7은 본 발명의 일 실시예에 따른 축사 근접 개체 탐지 방법을 설명하기 위한 순서도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 본 발명을 명확하게 설명하기 위해 도면에서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. 또한, 도면을 참고하여 설명하면서, 같은 명칭으로 나타낸 구성일지라도 도면에 따라 도면 번호가 달라질 수 있고, 도면 번호는 설명의 편의를 위해 기재된 것에 불과하고 해당 도면 번호에 의해 각 구성의 개념, 특징, 기능 또는 효과가 제한 해석되는 것은 아니다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에 있어서 '부(部)'란, 하드웨어 또는 소프트웨어에 의해 실현되는 유닛(unit), 양방을 이용하여 실현되는 유닛을 포함하며, 하나의 유닛이 둘 이상의 하드웨어를 이용하여 실현되어도 되고, 둘 이상의 유닛이 하나의 하드웨어에 의해 실현되어도 된다.
이하, 도면을 참조하여 본 발명의 일 실시예에 따른 축사 근접 개체 탐지 장치 및 방법에 대해서 상세히 설명하도록 한다.
도 1은 본 발명의 일 실시예에 따른 축사 근접 개체 탐지 장치의 구성도이다.
도 1에 도시한 바와 같이, 축사 근접 개체 탐지 장치(100)는 카메라부(110), 메모리(120) 및 프로세서(130)를 포함한다.
본 발명의 일 실시예에서는, 축사의 일 예로서 돈사를 고려하되, 축사 개체 탐지 장치(100)가 돈사 내에서 밀집 사육되고 있는 돼지 개체(entity)를 탐지 및 추적하는 것을 설명하도록 한다. 또한, 카메라부(110)를 통해 촬영된 영상 내에 존재하는 돼지 개체를 탐지 대상으로서의 객체(object)라고 지칭하도록 한다.
카메라부(110)는 축사의 일 위치에 축사 내부 전체를 촬영할 수 있는 각도로 설치되며, 축사 내부를 촬영한 영상을 실시간으로 프로세서(130)로 전송한다. 예를 들어, 도 1에 도시한 바와 같이, 카메라부(110)는 바닥으로부터 임의의 높이(예: 천장) 상의 일 영역에 설치될 수 있으며, 축사 내부를 촬영하여 지속적으로 녹화할 수 있다.
메모리(120)는 축사 촬영 영상을 처리하여 객체를 분리해내고, 분리된 객체 중 복수의 객체가 근접된 근접 객체를 검출하여 개별 객체로 구분하는 근접 개체 탐지 프로그램을 저장하고 있다.
프로세서(130)는 메모리(120)에 저장되어 있는 프로그램을 실행하여, 근접 개체를 탐지하는데 필요한 기설정된 처리들을 수행한다. 이때, 프로세서(130)는 근접 개체가 검출된 영상 프레임(이하, “현재 프레임”이라고 지칭함)의 이전 프레임의 개별 객체의 영역을 현재 프레임의 객체 위치에 정렬함으로써, 현재 프레임 상에서 서로 근접된 다수의 객체(즉, 근접 개체)를 개별 객체로 분리하여 표시할 수 있다.
프로세서(130)는 영상 내 객체를 분리하기 위해, 객체의 각 픽셀을 어떠한 지점으로 모두 이동(Translation)시켜 결과적으로 객체를 이동시키는 기법인 픽셀 정렬 기법을 사용할 수 있다. 이때, 프로세서(130)는 시간 정보를 이용하여 이전 프레임과 현재 프레임의 정보를 동시에 활용함으로써, 이전 프레임에서 미리 분리된 객체를 현재 프레임의 객체가 위치한 지점에 이동시켜 근접 개체를 개별 개체로 구분한다.
이하, 프로세서(130)를 통한 축사 내 근접 개체 탐지를 위한 처리 과정에 대해서 상세히 설명하도록 한다.
프로세서(130)는 근접 개체 탐지 프로그램의 실행을 통해, 카메라부(110)로부터 수신된 영상에 대해 기설정된 영상 처리를 하여 영상 내에서 탐지 목표 객체(즉, 돼지 개체)와 배경을 분리한다.
이때, 프로세서(130)는 수신된 영상 프레임에 대해 HSV(Hue Saturation Value)의 값을 설정한 후, 그 결과 영상을 이진화하여 객체와 배경을 분리할 수 있다. 참고로, HSV는 그래픽에서 색조(Hue), 채도(Saturation) 및 명암(Value)의 형태로 색상을 표시하는 컬러 모델이다. 그리고 이진화 처리는, 영상 내에서 원하는 객체의 위치를 찾기 위한 전처리로서, 영상 내 모든 픽셀에 대해 특정 임계값을 기준으로 0 또는 255의 픽셀값으로 나타내는 처리이다. 이러한 영상 처리를 통해, 축사를 촬영한 영상에서 축사 바닥에 존재하는 노이즈 물질 또는 형상(예: 개체의 오물 또는 조명에 의한 개체의 그림자 등)을 제거하고 객체를 구분해낼 수 있다.
그리고 프로세서(130)는 검출된 객체들 중 여러 객체가 근접한 경우를 탐지하고, 근접 개체가 존재하는 영역을 각각 관심영역(ROI, Region of Interest)으로 설정한다.
예를 들어, 프로세서(130)는 검출된 객체 별 면적에 기초하여 근접 개체를 구분할 수 있다. 이때, 프로세서(130)는 사전에 근접 개체가 없는 것으로 확인된 기준 영상 프레임으로부터 각각의 객체를 검출하고, 각 객체의 면적값을 저장해둘 수 있다. 그리고 프로세서(130) 사전에 저장된 객체 별 면적값에 기초하여 설정된 기준 면적값과 현재 프레임에서 검출된 임의의 객체의 면적값을 비교하여, 임의의 객체의 면적값이 기준 면적값을 초과하는 경우 해당 객체를 근접 개체로서 판단할 수 있다.
프로세서(130)는 위와 같은 영상 처리된 결과 영상 프레임 중에서, 관심영역이 설정된 현재 프레임(즉, 근접 개체가 발생된 프레임)과, 관심영역이 발생되기 이전(즉, 복수의 개체가 서로 근접하기 이전) 프레임을 매칭하여 저장한다.
도 2는 본 발명의 일 실시예에 따른 근접 개체가 표시된 이진화 영상의 일례이다.
도 2에서는, 세마리의 돼지 개체가 서로 근접된 영역이 존재하는 영상을 기설정된 영상 처리한 결과 영상을 나타내었다. 이때, 도 2에서는 결과 영상의 전체 영역 중 관심 영역(P10)이 검출된 일부 영역을 예로서 나타내었다.
프로세서(130)는 복수의 객체가 근접하기 이전의 프레임인 ‘이전 프레임’에서 각각의 객체를 레이블링 처리하여, 개별 객체들을 구분한다.
참고로, 레이블링 처리는 이진화 영상에서 객체와 배경을 분리하고자 할 경우 각 객체에 라벨링하는 작업을 의미한다. 구체적으로, 영상을 이진화시켰을 때, 255의 값을 갖는 픽셀들의 집합을 하나의 객체로 규정할 수 있다. 이때, 하나의 객체는 한 개 이상의 인접 픽셀들로 이루어져 있으며, 하나의 이진화 영상 내에 복수의 객체가 존재할 수 있다. 이와 같은 객체를 배경과 분리하여 인지하기 위해 라벨을 붙일 수 있으며, 라벨이 있는 픽셀은 객체를 표현하는 픽셀이라고 정의될 수 있다.
도 3은 본 발명의 일 실시예에 따른 개체가 근접하기 이전의 영상에서의 개별 객체를 레이블링 처리한 영상의 일례이다.
도 3에서는, 앞서 도 2에 도시한 관심영역이 설정되기 이전 프레임에서 구분된 객체들을 나타내었다. 이때, 관심영역은 세 개의 객체가 근접된 결과로서, 도 3에서와 같이 제 1 내지 제3 객체로 구분되어 각각 라벨링될 수 있다.
프로세서(130)는 라벨링된 이전 프레임의 각 객체와 현재 프레임에서의 관심영역의 객체의 픽셀 위치를 비교하고, 두 프레임에서 객체의 위치가 중복되면 이전 프레임의 객체를 현재 프레임 상에 투영한다.
그리고 프로세서(130)는 이전 프레임을 현재 프레임에 투영한 결과 프레임에 대해, 각 객체가 중복된 영역의 중심점(centriod) 및 중복되지 않은 영역의 중심점을 각각 산출한다. 이때, 프로세서(130)는 영상 처리 시 임의의 면적에 대해 중심점을 산출하되, 중심점은 밀도 또는 거리에 기반한 다양한 함수들을 사용하여 산출할 수 있다. 예를 들어, 프로세서(130)는 공개 소스인 OpenCV(Open Computer Vision)의 라이브러리 함수인 'cvMoments' 함수를 이용하여, 중복 영역 및 비중복 영역 각각의 중심점을 계산할 수 있다.
도 4는 본 발명의 일 실시예에 따른 투영 결과 영상에서 객체 별로 관심 영역과의 중복 영역 및 비중복 영역의 중심점을 표시하였다.
도 4를 참조하면, 이전 프레임의 객체 영역과 현재 프레임의 객체 영역이 3 부분에 걸쳐 겹쳐진(즉, 객체가 중복된 부분) 것을 알 수 있다. 즉, 도 2에 도시된 복수의 객체(즉, 근접 개체)가 하나의 객체로 검출된 영역(즉, 관심영역)과, 도 3에 도시된 3개의 개별 객체(즉, 이전 프레임에서 검출된 객체)의 영역을 오버랩함으로써 3개의 중복 영역이 발생된다. 도 4에서는 3부분의 중복 영역 별로 산출된 중심점(P41)을 표시하였으며, 개별 객체 별로 각각 대응하는 중복 영역을 제외한 영역(즉, 객체가 중복되지 않은 부분) 별로 산출된 중심점(P42)를 표시하였다. 또한, 도 4에서 현재 프레임의 관심 영역 중 이전 프레임의 객체와 겹쳐지지 않은 영역(즉, 비중복된 영역)은 이전 프레임의 어느 객체와 중복될지 알 수 없는 불확정 영역으로 정의될 수 있다.
프로세서(130)는 계산된 두 영역(즉, 중복 영역 및 비중복 영역) 별 중심점들을 이용하여, 이전 프레임과 현재 프레임 사이의 객체 이동량 및 이동 방향을 산출한다. 즉, 프로세서(130)는 현재 프레임에 투영된 이전 프레임의 객체 별로 비중복 영역의 중심점으로부터 중복 영역의 중심점까지의 이동량 및 이동 방향을 산출한다. 그리고 프로세서(130)는 산출된 중심점 별 이동량 및 이동 방향을 각각 대응하는 객체에 적용하여 정렬시킨다. 이처럼, 프로세서(130)는 중심점의 이동량 및 이동방향에 기초하여 객체의 위치를 이동시키는 픽셀 정렬 처리를 수행한다.
도 5는 본 발명의 일 실시예에 따른 투영 결과 영상에 객체 별 픽셀 정렬 처리 결과가 표시된 영상의 일례이다.
도 5에 도시된 제 1 객체 내지 제 3 객체에 대해, 각각 비중복 영역의 제 1 중심점(P42)로부터 중복 영역의 제 2 중심점(P41)으로의 이동량 및 이동 방향을 계산할 수 있다. 그리고, 개별 객체(즉, 이전 프레임 상의 객체)들에 각각 해당하는 이동량 및 이동 방향을 적용하여 픽셀의 데이터 값들을 전체 이동시킬 수 있다. 이에 따라, 도 5에 도시한 바와 같이 투영 결과 영상 상에서 이전 프레임의 개별 객체들의 위치가 현재 프레임의 관심 영역에 대응하는 위치와 최대한 대응되도록 재정렬된다.
이때, 프로세서(130)는 현재 프레임에 투영된 이전 프레임의 객체 별로 독립적으로 픽셀 정렬을 처리하되, 가장 넓은 영역이 중복된 객체부터 순차적으로 정렬시킬수 있다. 예를 들어, 관심 영역과의 중복된 면적이 가장 넓은 순서를 제 1 객체, 제 2 객체, 제3 객체의 순서라고 가정할 경우, 제 1 객체의 픽셀 정렬을 가장 먼저 처리한 후 제 2 객체 및 제 3 객체의 픽셀 정렬을 순차적으로 처리할 수 있다. 이에 따라, 도 5에 도시한 바와 같이, 재정렬 처리된 객체 간에 중복되는 영역은 각각 마지막에 픽셀 정렬된 객체의 영역으로 표시될 수 있다. 참고로, 픽셀 정렬의 순서는 가장 좁은 면적을 기준으로 처리될 수도 있으며, 순서 설정 방식은 ‘중복된 면적’에 대한 오름차순 또는 내림차순에 한정되지 않는다. 또한, 픽셀 정렬의 순서 설정 조건은 ‘중복된 면적’ 이외의 다양한 조건이 설정될 수도 있다.
그런 다음, 프로세서(130)는 개별 객체를 픽셀 정렬한 결과인 결과 프레임에서 빈 공간인 불확정 영역에 대해 후처리 보정을 하여 개별 객체의 분리 처리를 완료한다. 이때, 프로세서(130)는 후처리 보정으로서, 모폴로지(morphology) 기법 중 객체 영역을 확장시키는 ‘팽창 연산(Dilation Operator)’ 및 인접한 픽셀에 객체의 픽셀 값을 적용하는 기법인 ‘연결요소 레이블링(Connected Component Labeling)’ 기법을 적용할 수 있다.
도 6은 본 발명의 일 실시예에 따른 근접 개체를 개별 개체로 분리한 결과의 모식도이다.
도 6에서는, 현재 프레임에서 하나의 객체로 인식되던 부분(즉, 근접 개체)을 개별 객체로 분리한 결과를 후처리 보정을 통해 최종적으로 표시한 것을 나타내었다.
한편, 프로세서(130)는 분리된 개체들을 포함하는 축사 내 복수의 개체들에 대해 개별적으로 트래킹을 처리할 수 있다. 예를 들어, 프로세서(130)는 각 개체 별로 현재 위치 정보와 직전 위치 정보 간의 유클라디안 거리를 산출하여, 개체를 이전 위치에서의 식별 정보와 대응되도록 색인화 처리할 수 있다. 이를 통해, 여러 개의 개체가 동시에 움직이는 상황에서도 개체 겹침(즉, 근접 개체)을 분석 및 해결하여, 한 영상 내에서 개별 개체에 대한 트래킹을 동시에 처리할 수 있다.
이하, 도 7을 참조하여 본 발명의 일 실시예에 따른 축사 근접 개체 탐지 장치를 통한 근접 개체 탐지 방법에 대해서 상세히 설명하도록 한다.
도 7에서와 같이, 먼저 카메라를 통해 축사 내부를 촬영한 개체 촬영 영상을 획득한다(S701).
다음으로, 촬영된 영상 프레임에 대해 노이즈 제거를 위한 영상 처리를 수행한다(S702).
이때, 노이즈는 축사 내에서 탐지하고자 하는 개체(이하, ‘객체’라고 지칭함)를 제외한 잡영으로서, 영상 처리로서 프레임 별로 HSV 값을 조절하여 객체와 배경을 구분할 수 있다.
그런 다음 HSV 영상을 이진화 처리한 후, 이진 영상 내에서 복수의 객체가 하나의 객체로 인식되는 영역(즉, 근접 개체들이 존재하는 영역)을 관심 영역으로 설정한다(S703).
참고로, 실시간으로 촬영된 영상 프레임 중 관심 영역이 처음 검출된 영상 프레임에 대해 그 이전 프레임을 매칭하여 근접 개체 탐지를 위해 임시 저장할 수 있다. 이때, 관심 영역이 처음 검출된 영상이란, 관심 영역이 연속적으로 나타나지 않다가 처음으로 나타난 경우의 영상을 의미하며, 관심 영역이 처음 검출된 영상 이후에 적어도 하나의 영상 프레임 상에서 관심 영역이 연속적으로 검출될 수 있다.
다음으로, 관심 영역이 설정된 현재 프레임의 이전 프레임에 대해 객체 레이블링을 처리한다(S704).
즉, 이전 프레임에 검출된 복수의 객체들은 서로 구분되지 않을 정도로 근접하기 이전의 상태로서, 각 개체 별로 라벨링을 처리한다.
그런 다음, 현재 프레임 상에 이전 프레임을 투영한다(S705).
이때, 현재 프레임 상의 관심 영역에 이전 프레임의 라벨링된 복수의 객체들을 투영한다.
그런 후, 투영이 완료된 영상 프레임 상에서, 이전 프레임의 객체에서 관심 영역과 중복된 부분과 중복되지 않은 부분의 각 중심점을 산출한다(S706).
중심점 산출 방식은, 객체 별 면적 내에서 데이터에 관한 밀도 및 거리 등에 관련된 다양한 방식의 중심점 산출 함수를 이용할 수 있다.
투영 결과 영상에서, 이전 프레임의 각 객체 별로 중복 부분 및 비중복 부분 각각에서 중심점이 결정되면, 동일 객체에 대한 중복 부분 및 비중복 부분의 중심점 간 이동량 및 이동 방향을 산출한다(S707).
이러한, 두 중심점 간 이동량 및 이동 방향은 객체 별 위치 이동을 위한 픽셀 정렬 처리의 조건으로서 사용된다.
다음으로, 정량 기법을 적용하여 객체 별로 독립적으로 정렬을 처리한다(S708).
즉, 투영 결과 영상에서, 각 객체의 비중복 부분의 중심점으로부터 중복 부분의 중심점으로의 이동량 및 이동방향을 객체의 픽셀 전체에 적용하여 픽셀 정렬을 처리한다.
이때, 투영 결과 영상에서 관심 영역과의 겹치는 면적이 큰 객체부터 순차적으로 픽셀 정렬을 처리할 수 있다. 이러한 객체의 픽셀 정렬 순서는, 픽셀 정렬 시 객체 간에 중복되는 영역을 처리하기 위한 것으로, 그 순서를 설정하는 기준은 한정되지 않는다.
그런 다음, 픽셀 정렬 처리가 완료된 결과 영상에 대해 후처리 보정을 수행한다(S709).
이때, 픽셀 정렬 처리된 결과 영상에서, 관심 영역의 비중복 영역(즉, 불확정 영역)을 후처리 보정을 통해 채울 수 있다.
현재 프레임에 후처리 보정 결과까지 적용된 객체 분리를 처리함으로써, 근접 개체로부터 개별 개체를 분리하는 처리를 완료한다(S710).
이상에서 설명한 본 발명의 일 실시예에 따른 축사 내 근접 개체 탐지 방법은, 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 축사 내 개체 탐지 장치
110: 카메라부
120: 메모리
130: 프로세서

Claims (12)

  1. 축사 근접 개체 탐지 장치에 있어서,
    축사 내부를 촬영하는 카메라부;
    근접 개체 탐지 프로그램이 저장된 메모리; 및
    상기 메모리에 저장된 근접 개체 탐지 프로그램을 실행하는 프로세서를 포함하며,
    상기 프로세서는 상기 프로그램의 실행에 응답하여, 상기 카메라부를 통해 촬영된 영상으로부터 복수의 개체가 근접하여 하나로 인식되는 영역을 관심 영역으로 설정하고, 상기 관심 영역이 설정된 제 1 프레임에 이전 프레임인 제 2 프레임을 투영하여 상기 제 2 프레임 상의 개별 개체의 영역을 상기 관심 영역의 위치로 픽셀 정렬 처리하고, 상기 픽셀 정렬의 결과 영상을 통해 상기 관심 영역 내 복수의 개체를 개별 개체로 분리하여 표시하고,
    상기 투영의 결과에 따른 프레임 상에서, 상기 제 2 프레임의 개별 개체 별로 상기 제 1 프레임의 관심 영역과의 중복된 영역에 대한 제 1 중심점 및 비중복된 영역에 대한 제 2 중심점을 계산하고,
    상기 제 2 중심점으로부터 상기 제 1 중심점으로의 이동량 및 이동 방향을 계산하고,
    상기 계산된 이동량 및 이동 방향의 값을 상기 개별 개체의 각 픽셀에 적용하여 위치를 이동시켜 상기 픽셀 정렬 처리를 수행하는 축사 근접 개체 탐지 장치.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 프로세서는,
    상기 촬영된 영상의 일 프레임에 대해 HSV(Hue Saturation Value) 값을 설정하고, 상기 설정의 결과에 따른 영상을 이진화 처리하여 상기 개체 및 노이즈를 분리하는 축사 근접 개체 탐지 장치.
  4. 제 1 항에 있어서,
    상기 프로세서는,
    상기 제 2 프레임 상의 개별 개체들에 대해 레이블링 처리를 수행하는 축사 근접 개체 탐지 장치.
  5. 제 1 항에 있어서,
    상기 프로세서는,
    상기 제 2 프레임의 개별 개체 중 상기 관심 영역과 가장 넓은 영역이 중복된 개체부터 순차적으로 상기 픽셀 정렬 처리를 수행하는 축사 근접 개체 탐지 장치.
  6. 제 1 항에 있어서,
    상기 프로세서는,
    상기 투영의 결과에 따른 프레임 상에서, 상기 제 1 프레임의 관심 영역 중 상기 제 2 프레임의 개별 개체의 영역과 비중복된 영역에 대해 개체 영역을 확장시켜 픽셀 값을 변경하는 후처리 보정을 수행하는 축사 근접 개체 탐지 장치.
  7. 축사 근접 개체 탐지 장치를 통한 근접 개체 탐지 방법에 있어서,
    축사 내부를 촬영하는 카메라부를 통해 촬영된 영상으로부터 복수의 개체가 근접하여 하나로 인식되는 영역을 관심 영역으로 설정하는 단계;
    상기 관심 영역이 설정된 제 1 프레임에 상기 제 1 프레임의 이전 프레임인 제 2 프레임을 투영하는 단계;
    상기 투영의 결과에 따른 프레임 상에서 상기 제 2 프레임 상의 개별 개체의 영역을 상기 관심 영역의 위치로 픽셀 정렬 처리하는 단계; 및
    상기 픽셀 정렬의 결과 영상을 통해 상기 관심 영역 내 복수의 개체를 개별 개체로 분리하여 표시하는 단계를 포함하고,
    상기 픽셀 정렬 처리하는 단계는,
    상기 투영의 결과에 다른 프레임 상에서 상기 제 2 프레임의 개별 개체 별로 상기 제 1 프레임의 관심 영역과의 중복된 영역에 대한 제 1 중심점 및 비중복된 영역에 대한 제 2 중심점을 계산하는 단계;
    상기 제 2 중심점으로부터 상기 제 1 중심점으로의 이동량 및 이동 방향을 계산하는 단계; 및
    상기 계산된 이동량 및 이동 방향의 값을 상기 개별 개체의 각 픽셀에 적용하여 위치를 이동시키는 단계를 포함하는 근접 개체 탐지 방법.
  8. 삭제
  9. 제 7 항에 있어서,
    상기 위치를 이동시키는 단계는,
    상기 제 2 프레임의 개별 개체 중 상기 관심 영역과 가장 넓은 영역이 중복된 개체부터 순차적으로 이동시키는 근접 개체 탐지 방법.
  10. 제 7 항에 있어서,
    상기 관심 영역으로 설정하는 단계는,
    상기 촬영된 영상의 일 프레임에 대해 HSV(Hue Saturation Value) 값을 설정하는 단계;
    상기 설정의 결과에 따른 영상을 이진화 처리하여 상기 개체 및 노이즈를 분리하는 단계; 및
    상기 이진화 처리된 영상으로부터 복수의 개체가 근접되어 하나로 인식된 영역을 검출하여 관심 영역으로 설정하는 단계를 포함하는 근접 개체 탐지 방법.
  11. 제 7 항에 있어서,
    상기 제 2 프레임을 투영하는 단계 이전에,
    상기 제 2 프레임 상의 개별 개체들에 대해 레이블링 처리를 수행하는 단계를 더 포함하는 근접 개체 탐지 방법.
  12. 제 7 항에 있어서,
    상기 픽셀 정렬 처리하는 단계 이후에,
    상기 투영의 결과에 따른 프레임 상에서, 상기 제 1 프레임의 관심 영역 중 상기 제 2 프레임의 개별 개체의 영역과 비중복된 영역에 대해 개체 영역을 확장시켜 픽셀 값을 변경하는 후처리 보정을 수행하는 근접 개체 탐지 방법.
KR1020160060860A 2016-05-18 2016-05-18 축사 근접 개체 탐지 장치 및 방법 KR101827113B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160060860A KR101827113B1 (ko) 2016-05-18 2016-05-18 축사 근접 개체 탐지 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160060860A KR101827113B1 (ko) 2016-05-18 2016-05-18 축사 근접 개체 탐지 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20170130161A KR20170130161A (ko) 2017-11-28
KR101827113B1 true KR101827113B1 (ko) 2018-02-08

Family

ID=60811163

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160060860A KR101827113B1 (ko) 2016-05-18 2016-05-18 축사 근접 개체 탐지 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101827113B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102505691B1 (ko) * 2018-06-21 2023-03-03 엘지이노텍 주식회사 이상 개체 검출 장치 및 방법, 이를 포함하는 촬상 장치
KR102122865B1 (ko) * 2019-10-10 2020-06-15 숭실대학교산학협력단 겹쳐진 led들을 분리하기 위한 led 검출 방법 및 장치
KR102594017B1 (ko) * 2020-11-30 2023-10-26 에이비주식회사 가축 관리 시스템 및 이의 동작 방법
JP7464305B2 (ja) * 2021-11-29 2024-04-09 まちなかMeセンター株式会社 動物のバイタルサイン管理システム、及び、これを備えた動物のバイタルサイン管理方法

Also Published As

Publication number Publication date
KR20170130161A (ko) 2017-11-28

Similar Documents

Publication Publication Date Title
US11080559B2 (en) Product onboarding machine
KR101971866B1 (ko) 동화상에 있어서 물체를 검출하는 방법 및 장치, 및 그 프로그램을 기억한 기억 매체
US9213896B2 (en) Method for detecting and tracking objects in image sequences of scenes acquired by a stationary camera
US10373320B2 (en) Method for detecting moving objects in a video having non-stationary background
KR101827113B1 (ko) 축사 근접 개체 탐지 장치 및 방법
KR101130963B1 (ko) 형태와 특징 정보를 이용한 비정형 객체 추적 장치 및 그 방법
CN111881853B (zh) 一种超大桥隧中异常行为识别方法和装置
Liem et al. Joint multi-person detection and tracking from overlapping cameras
CN105940430A (zh) 人员计数方法及其装置
Santos et al. Multiple camera people detection and tracking using support integration
Führ et al. Combining patch matching and detection for robust pedestrian tracking in monocular calibrated cameras
US20130155226A1 (en) Object tracking system using robot and object tracking method using a robot
US10977808B2 (en) Three-frame difference target acquisition and tracking using overlapping target images
JP6280020B2 (ja) 移動物体追跡装置
JP2009048428A (ja) 移動物体追跡装置
KR101793790B1 (ko) 축사 개체 탐지 장치 및 방법
JP2020095707A (ja) ディープブラインド画像領域予測を用いたアライメントフリービデオ変化検出
CN102013007B (zh) 用于检测面部的装置和方法
KR101690050B1 (ko) 지능형 영상보안 시스템 및 객체 추적 방법
US20080198237A1 (en) System and method for adaptive pixel segmentation from image sequences
Hernández et al. People counting with re-identification using depth cameras
Almomani et al. Segtrack: A novel tracking system with improved object segmentation
KR101827114B1 (ko) 축사 근접 개체 탐지 장치 및 방법
KR101646580B1 (ko) 하체 검출/추적 장치 및 방법
KR102428319B1 (ko) 고객 정보 제공 방법, 장치 및 컴퓨터 프로그램

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant