KR20200123323A - Yolo 기반 경계 상자의 회전을 통한 겹침 돼지 분리 방법 - Google Patents

Yolo 기반 경계 상자의 회전을 통한 겹침 돼지 분리 방법 Download PDF

Info

Publication number
KR20200123323A
KR20200123323A KR1020190045479A KR20190045479A KR20200123323A KR 20200123323 A KR20200123323 A KR 20200123323A KR 1020190045479 A KR1020190045479 A KR 1020190045479A KR 20190045479 A KR20190045479 A KR 20190045479A KR 20200123323 A KR20200123323 A KR 20200123323A
Authority
KR
South Korea
Prior art keywords
image
pig
pigs
yolo
overlapping
Prior art date
Application number
KR1020190045479A
Other languages
English (en)
Inventor
이한해솔
신현준
최윤창
정용화
박대희
김학재
Original Assignee
주식회사 클래스액트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 클래스액트 filed Critical 주식회사 클래스액트
Priority to KR1020190045479A priority Critical patent/KR20200123323A/ko
Publication of KR20200123323A publication Critical patent/KR20200123323A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 돈사(豚舍)내에 설치된 CCTV 단말기로 촬영한 영상에서 겹침 돼지를 분리 하는 방법에 관한 것으로서, 보다 구체적으로는 적외선 센서 기반 깊이 촬영이 가능한 CCTV 단말기에서 획득한 깊이 영상을 이용하여 돈사 내의 겹침 돼지를 분리하는 방법으로, (1) 상기 모니터링 CCTV 단말기에서 돈사 내의 돼지를 촬영하여 깊이 영상을 획득하는 단계; (2) 겹침 돼지들의 위치 정보를 기반으로 적외선 영상의 겹침 돼지에 적용하여 YOLO 학습 이미지 및 테스트 이미지 획득 단계; (3) (2)에서 YOLO 학습을 위해 획득한 이미지에 겹침 돼지의 경계선 영역을 표시 후 해당 이미지를 수만 번 이상 학습하여 목표 신뢰도에 달성한 경계 상자 정보를 획득하기 위한 학습 모델을 생성하는 단계; (4) 상기 단계 (3)에서 생성된 YOLO 학습 모델을 이용하여 경계 상자 정보를 도출하고, 출력으로 나온 이미지를 획득하는 단계; (5) (4)의 결과에 대하여 이미지를 10도씩 5회 회전하여 원본 이미지에 5장의 회전시킨 이미지를 추가하는 이미지 증폭(augmentation) 단계; (6) 증폭된 이미지에서 YOLO 경계 상자의 가로/세로 비율 차이가 가장 큰 이미지를 해당 시퀀스의 대표 이미지로 선정하는 단계; (7) 두 돼지의 경계선을 뚜렷하게 하기 위하여 히스토그램 평활화 기법을 사용하여 이미지의 명암을 조정하는 단계; (8) 경계 상자 내부의 픽셀에 대하여 Otsu 기법을 적용함으로써 특정 임계 값 이상인 픽셀이면 겹침 돼지 중 겹침을 당한 돼지에 해당한다고 가정하고 이를 이용하여 겹침 돼지를 최종적으로 분리하는 단계를 포함하는 것을 그 구성상의 특징으로 한다.
본 발명에서 제안하고 있는 'YOLO 기반 경계 상자의 회전을 통한 겹침 돼지 분리' 방법에 따르면, YOLO 결과 이미지를 회전을 통하여 증폭시켜 보다 적합한 이미지를 선정하였고, 이에 종래 일반적인 YOLO 기법과 비교하여 정확하고, 보다 확실한 방법으로 겹침 돼지를 분리할 수 있다. 또한 본 발명에 따르면, 이미지 내 실시간 겹침 돼지 분리가 가능해짐으로써 돈사 내 돼지 모니터링 정보를 실시간으로 제공 및 분석이 가능하다.

Description

YOLO 기반 경계 상자의 회전을 통한 겹침 돼지 분리 방법{METHOD FOR SEGMENTATION OF OCCLUDED PIG OBJECTS USING ROTATED BOUNDING BOXES BASED ON YOLO ALGORITHM}
본 발명은 돈사(豚舍)내에 설치된 CCTV 단말기로 촬영한 영상에서 서로 겹침이 발생한 돼지를 분리 하는 방법에 관한 것으로서, 보다 구체적으로는 딥러닝 기술인 YOLO 기반 경계 상자의 결과 영상 양을 증가시킨 후, 경계 상자의 가로/세로 비율 차를 이용하여 겹침 돼지를 분리하기 위한 가장 적합한 경계 상자를 선택하여 문제를 해결하는 방법에 관한 것이다.
국내 농·축산업에도 4차 산업기술의 도입이 가속화되면서 스마트 팜(Smart farm)이 도입되고 있다. 스마트 팜은 사물 인터넷(Internet of Things, IoT) 기술을 이용하여 농작물과 가축 관리에 자동화가 이루어지는 농장으로, 스마트 팜이 구현된 농장은 농작물 재배 시설의 온도 및 습도 등을 분석하고 분석 결과에 따라 농장의 상태가 제어될 수 있다.
스마트 팜은 농작물뿐만 아니라 축산업에도 적용되고 있으며, 일반적으로 사물 인터넷 기술이 적용된 돈사(豚舍)를 스마트 돈사(Smart 豚舍)라고 한다. 이러한 스마트 돈사에서는 사물 인터넷 기술을 이용하여 돈사 내의 상황을 실시간으로 모니터링 할 수 있으며, 온도나 습도 등을 제어할 수 있다. 특히, 스마트 돈사에서 돼지의 상태를 파악하고 관리하기 위하여 개별적으로 돼지의 상태를 모니터링하고 분석할 수 있는 시스템이 개발되고 있는데, 이러한 분석 시스템은 고가의 장비 및 기술을 기반으로 구축된다. 따라서 이러한 고가의 개별 돼지 상태 분석 시스템은 돈육 생산 환경에 대한 대규모 투자가 이루어지는 선진국 위주로 도입되고 있는 상황이며, 국내의 영세 축산업자는 비용적인 문제로 이러한 시스템을 도입할 수가 없는 실정이다.
한편, 스마트 돈사에서 고가의 시설 제어 기술과는 달리, CCTV 단말기를 이용하여 개별 돼지의 상태를 분석할 수 있는 기술에 대한 연구가 진행되고 있다. 이러한 개별 돼지 상태 분석용 CCTV 기술을 이용하면, 돈사 내의 상황을 실시간으로 확인할 수 있다. 예를 들면, 돈사에 제공되고 있는 온도, 습도, 음수, 사료 등에 따라 돼지들이 어떻게 반응하는지를 확인할 수 있을 뿐만 아니라, CCTV 영상 추적을 통해 개별 돼지를 추적하여 행동 특성을 분석함으로써 개별 돼지의 질병, 발육 상태 등을 파악할 수 있다.
스마트 팜과 관련된 선행기술로, 한국 등록특허 제10-1072881호 ‘농축산 시설의 원격 관리 시스템’ 등이 제시된 바 있다.
개별 돼지 감시 및 상태 분석용 CCTV 기술은 기존 시설 제어 기반 양돈 관리 기술과 비교하여 매우 저렴한 비용으로 돈육의 생산성을 크게 개선할 수 있으며, 특히 국내 영세 양돈 환경에 적합한 기술이다. 그러나 종래 개별 돼지 상태 분석용 CCTV 기술 만으로는 한 마리의 돼지가 다른 한 마리의 돼지 위로 지나가거나 머무르는 등 돼지가 서로 겹침이 발생할 경우 개별 돼지로 정확하게 분리할 수 없는 문제점이 있었다.
한편, 기계학습 분야(혹은 딥러닝 분야)에서 사용되는 YOLO(욜로) 알고리즘은 실시간으로 영상의 의미 영역을 검출하는 기술이며 일례로, 의미 영역은 임의의 영상 내에 포함될 수 있는 얼굴, 자동차, 나무, 안경 등과 같은 영상 패턴이다.
YOLO 알고리즘은 교사 학습(supervised learning) 방식 기계학습 알고리즘으로써 인식할 의미 영역과 이에 대한 분류 정보(즉, 라벨링)를 쌍으로 학습 데이터를 생성하는 단계, 상기 수천 이상의 학습 데이터를 입력 파라미터로한 학습 모델 데이터 생성 단계, 그리고 학습 모델 데이터를 이용하여 임의의 영상에서 학습된 의미 영역을 추출하는 객체 분류 단계를 포함한다.
YOLO 알고리즘의 활용하는 통상적인 실시 예로, 디지털 카메라를 이용하여 도로 상에 주행 중인 임의 차량의 종류를 구분하기 위해서 차량 이미지와 상기 차량 이미지에 대한 분류 정보(예: 트럭, 버스, 승용차 등)의 쌍으로 이루어진 수천 건 이상의 학습 데이터를 준비하고, 상기 학습 데이터를 입력 파라미터로한 YOLO 알고리즘 기계학습 기능을 실행하여 모델 데이터를 생성하며, 상기 모델 데이터와 임의 이미지를 입력 파라미터로 YOLO 알고리즘 분류 기능을 실행하면 의미 영역의 추출 결과를 경계 상자와 상기 경계 상자(bounding box)에 대한 분류 정보 형태로 제공한다.
상기 YOLO 알고리즘은 기계학습 영상 인식 분야에서 성능 및 정확도가 높고 수행 속도가 빠르기 때문에 자율주행 자동차, 영상 내 인물 탐지 등 실시간 사물 인지 분야 등에 통상적으로 사용된다.
상기 YOLO 알고리즘의 객체 분류 단계에서는 구체적으로 의미 영역의 정확한 검출을 위한 초기 검출 객체 목표 신뢰도를 설정하며, 입력 영상을 일정 크기 경계 상자 단위로 분할한다.
객체 검출 과정은 상기 분할된 모든 경계 상자에 대하여 경계 상자 내부의 포함될 수 있는 검출 후보 객체 신뢰도 계산하며, 계산된 검출 후보 객체 신뢰도가 상기 초기 검출 목표 신뢰도 이상일 경우 해당 경계 상자를 추출한다. 상기 객체 검출 과정을 통해서 경계 상자가 추출되지 않을 경우 경계 상자의 크기를 조정하고 반복적으로 객체 검출 과정을 실행한다.
한편, Otsu 기법은 영상 인식 분야 기술자들이 통상적으로 사용하는 방법으로 객체 인식 오류를 최소화시켜줄 수 있는 임계값을 찾아주는 이진화(Binarization) 방법이다.
발명은 기존에 제안된 방법들의 상기와 같은 문제점들을 해결하기 위해 제안된 것으로서, 구체적으로 모니터링 CCTV에서 취득한 영상의 겹침이 발생한 두 마리 돼지에 대해 육안으로 확인할 수 있는 한정된 정보만을 이용하여 개별 돼지를 분리하는 종래 기술 정확도의 한계를 딥러닝(즉, 기계학습)기술과 영상 처리 기술을 동시에 사용하여 해결하는 것을 그 목적으로 한다.
상기한 목적을 달성하기 위한 본 발명의 특징에 따른 YOLO 기반 경계 상자 검출을 통한 겹침 돼지 분리 방법은,
적외선 센서 기반 깊이 촬영이 가능한 CCTV 단말기에서 획득한 연속된 깊이 영상 정보를 이용하여 돈사 내의 겹침 돼지를 분리하는 방법으로써,
(1) 상기 모니터링 CCTV 단말기에서 돈사를 촬영하여 깊이 영상을 획득하는 단계(S100);
(2) 상기 단계 (1)에서 획득된 깊이 영상에서 겹침을 발생시킨 돼지들을 탐색하고, 겹침 돼지들의 위치 정보를 기반으로 YOLO의 학습 및 테스트에 이용하기 위한 영상 획득 단계(S200);
(3) 상기 단계 (2)에서 YOLO 학습을 위해 획득한 영상에 겹침 돼지의 경계 상자 영역을 표시 후 해당 레이블링된 영상을 학습하여 목표 신뢰도에 달성한 경계 상자 정보를 획득할 수 있는 학습 모델을 생성하는 단계(S300);
(4) 상기 단계 (3)에서 생성된 YOLO 학습 모델을 이용하여 레이블링된 경계 상자 영상을 획득하는 단계(S400);
(5) 상기 단계 (4)에서 결과로 획득한 YOLO 경계 상자 영상 내에서 돼지 객체를 반 시계 방향으로 10도씩 회전시키고, 이러한 프로세스로부터 5장의 영상을 추가하여 원본 영상을 포함하는 6장의 증폭(augmentation)된 영상을 획득하는 단계(S500);
(6) 상기 단계 (5)에서 획득한 증폭된 영상 중 경계 상자의 가로/세로 비율 차이를 이용하여 가장 비율 차이가 큰 영상을 선택하는 대표 영상 선정의 단계(S600);
(7) 상기 단계 (6)에서, 획득한 대표 영상에서의 겹침을 발생시킨 돼지와 겹침을 당한 돼지, 두 마리의 경계선을 뚜렷하게 하기 위하여 히스토그램 평활화를 적용하는 단계(S700); 및
(8) 상기 단계 (7)의 영상에 대하여 Otsu 기법을 적용함으로써 겹침이 발생한 두 마리의 돼지를 개별 돼지로써 분리하는 단계를 포함하는 것을 그 구성상의 특징으로 한다(S800).
본 발명을 이용하면, YOLO로부터 겹침이 발생한 돼지를 효과적으로 탐지할 수 있고, 여기서 겹침 돼지로 탐지될 때 생성되는 경계 상자 내에서의 히스토그램을 분석/이용함으로써 겹침이 발생한 두 마리의 돼지를 개별 돼지로써 효과적인 분리가 가능하다.
도 1은 본 발명의 일 실시 예에 따른 YOLO 기반 경계 상자의 회전을 통한 겹침 돼지 분리 방법의 각각의 단계를 도시한 도면.
도 2는 본 발명의 일 실시 예에 따른 YOLO 기반 경계 상자의 회전을 통한 겹침 돼지 분리 방법에서 겹침 돼지를 구분하는 기준을 도시한 도면.
도 3은 본 발명의 일 실시 예에 따른 YOLO 기반 경계 상자의 회전을 통한 겹침 돼지 분리 방법에서 돼지의 각도에 따른 YOLO 경계 상자의 크기 변화를 도시한 도면.
도 4는 본 발명의 일 실시 예에 따른 YOLO 기반 경계 상자의 회전을 통한 겹침 돼지 분리방법에서 돼지를 회전 시킴에 따라 겹침을 당한 돼지와 YOLO 기반 경계 상자 사이의 여백의 크기 변화를 도시한 도면.
이하에서는 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시 예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시 예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일 또는 유사한 부호를 사용한다.
덧붙여, 명세서 전체에서, 겹침 돼지를 구성하는 돼지 두 마리에 대하여 위쪽에 위치하는 돼지를 '겹침을 발생시킨 돼지'로 정의하고 아래쪽에 있는 돼지를 '겹침을 당한 돼지'로 정의한다. 또한, YOLO를 수행하여 겹침 돼지가 탐지될 때 생성되는 경계 상자와 겹침을 발생시킨 돼지 사이의 공간을 '여백'으로 정의한다. 마지막으로, 두 돼지 간 겹침 상황은 한 마리의 돼지가 다른 한 마리의 돼지를 넘어가는 상황과 한 마리의 돼지가 다른 한 마리의 돼지 일부를 가리는 상황 등의 두 가지 상황으로 가정하고, 돼지 간 겹침의 기준은 겹침을 발생시키는 돼지의 몸통이 겹침을 당하는 돼지의 몸통 절반 이상을 가렸을 경우로 가정한다.
도 1은 본 발명의 일 실시 예에 따른 YOLO 기반 경계 상자의 회전을 통한 겹침 돼지 분리 방법의 각 단계를 도시한 도면이다. 도 1에서 도시된 바와 같이, 본 발명에서 겹침 돼지의 개별 분리 방법은, 모니터링 CCTV 단말기에서 돈사 내의 돼지를 촬영하여 적외선을 획득하는 단계(S100), 단계 S100에서 획득된 깊이 영상에서 돈사 내 돼지의 겹침이 발생한 경우, 겹침을 당한 돼지의 영상을 이용하여 YOLO에 적용할 학습 및 테스트 영상을 만드는 단계(S200), S200에서 획득한 영상에 겹침 돼지의 경계선 영역을 표시 후 해당 레이블링된 영상을 학습하여 목표 신뢰도에 달성한 경계 상자 정보를 획득할 수 있는 학습 모델을 생성하는 단계(S300), S300에서 생성된 YOLO 학습 모델을 이용하여 레이블링된 영상을 획득하는 단계(S400), S400 단계에서 결과로 획득한 YOLO 영상(즉, 겹침 돼지가 탐지된 영상)에 해당 영상을 반 시계 방향으로 10도씩 회전시키고, 이러한 프로세스로부터 5장의 영상을 추가하여 원본 영상을 포함하는 6장의 증폭(augmentation)된 영상을 획득하는 단계(S500), S500에서 증폭된 6장의 영상 중 YOLO 경계 상자의 가로/세로 비율 차이를 계산하여 가장 비율 차가 큰 영상을 해당 시퀀스의 대표 영상으로 선정하는 단계(S600), S600 단계에서 획득한 대표 영상의 겹침을 발생시킨 돼지와 겹침을 당한 돼지 사이에서 나타나는 경계선을 뚜렷하게 하기 위하여 히스토그램 평활화를 적용하는 단계(S700), S700 단계의 영상에 Otsu 기법을 적용함으로써 겹침이 발생한 두 돼지를 분리하는 단계(S800)를 포함할 수 있다. 본 발명의 각각의 단계는, 실시 예에 따라서 CCTV 단말기에 포함된 제어부에서 수행될 수 있으며, 또는 별도의 서버에서 수행될 수 있다. 이하에서는, 본 발명의 일 실시 예에 따른 YOLO 기반 경계 상자의 회전을 통한 겹침 돼지 분리 방법에 대하여 각각의 단계에 대해 상세히 설명하기로 한다.
단계 S100에서는, 모니터링 CCTV 단말기에서 돈사 내의 돼지를 촬영하여 깊이 영상을 획득할 수 있다. 여기서, 모니터링 CCTV 단말기는 깊이 영상을 취득하기 위해서 고해상도 적외선 카메라가 사용된다.
단계 S200에서는 단계 S100에서 획득한 깊이 영상에서 겹침이 발생한 돼지에 YOLO를 적용하여 학습 및 테스트 영상을 만드는 단계이다.
단계 S300에서는, 단계 S200에서 YOLO 학습을 위해 획득한 영상에 겹침 돼지의 경계선 영역을 표시 후 해당 영상을 수만 번 이상 학습하여 목표 신뢰도에 달성한 경계 상자 정보를 획득하기 위한 학습 모델을 생성한다. 실시 예로, YOLO 알고리즘 학습에서, 학습에 이용되는 영상은 415장, 활성화 함수는 leaky ReLU 함수를 이용하며, 학습률은 0.001, 모멘텀(momentum) 0.9, 디케이(decay) 0.0005로 설정하고, 10,000회 이상 학습을 진행하여야 정확한 결과값을 도출할 수 있으며, YOLO 기반 기계 학습을 위한 학습률, 모멘텀, 디케이, 학습 횟수는 해당 기술분야의 통상의 기술자에 의해 이해될 수 있을 것이다.
도 2는 본 발명의 일 실시 예에 따른 두 마리의 돼지가 겹침이 발생했을 때의 경우의 수 중 한 가지인 한 마리의 돼지가 다른 돼지를 가렸을 때를 가정했을 때의 기준에 관한 도면이다.
단계 S400에서는, 단계 S300에서 생성된 YOLO 학습 모델을 이용하여 경계 상자의 정보를 구하고, 이에 대한 출력(겹침 돼지 탐지) 영상을 획득한다.
단계 S500에서는, S400단계에서 획득한 영상을 증폭(augmentation)시키는 단계이다. 학습 모델에 의해서 레이블링된 시퀀스 영상에 대하여 10도씩 5회 회전시키고, 이러한 프로세스로부터 5장의 회전 영상을 획득한다. 이와 같이 1장의 시퀀스 영상을 6장의 영상으로 증가시키는 단계이다.
단계 S600에서는, 6장의 영상 중 시퀀스를 대표할 대표 영상을 선정하는 단계이다. 대표 영상의 기준은 YOLO 경계 상자의 가로/세로 길이 비율의 차이를 이용하여 가장 비율 차이가 큰 영상을 대표 영상으로 선정한다. 탐지된 경계 상자 중 가로/세로 길이의 비율 차이는 객체(돼지)를 90도 혹은 180도로 회전 시켰을 때 최대가 되며, 여기서 길이 비율이 최대가 되는 경계 상자는 경계 상자와 탐지된 돼지 사이의 여백이 최소로 되기 때문에 가장 적합한 경계 상자로 선택할 수 있다. 따라서 각 시퀀스에 대하여 6장의 영상의 가로/세로 비율을 계산하여 비율의 차이가 최대로 발생하는 영상을 6장의 대표 영상으로 선정한다.
도 3은 본 발명의 일 실시 예에 따른 YOLO 기반 경계 상자의 회전을 통한 겹침 돼지 분리 방법에서 돼지의 회전 각도에 따른 경계 상자의 크기 변화를 도시한 도면이다.
도 4는 본 발명의 일 실시 예에 따른 YOLO 기반 경계 상자의 회전을 통한 겹침 돼지 분리 방법에서 돼지를 회전 시킴에 따라 겹침을 당한 돼지와 YOLO로부터 탐지된 경계 상자 사이의 여백 크기 변화를 도시한 도면이다.
단계 S700에서는, YOLO 경계 상자 내의 겹침을 발생한 돼지와 겹침을 당한 돼지의 경계선을 뚜렷하게 하기 위하여, 히스토그램 평활화 기법을 적용하여 영상 내 명암을 조정하는 단계이다. 경계 상자 내부의 픽셀 값에 대하여 히스토그램 평활화 방법은 해당 기술분야의 통상의 기술자에 의해 이해될 수 있을 것이다.
단계 S800에서는, 경계 상자 내부의 픽셀에 대해 Otsu 기법을 적용하여 특정 임계 값 이상인 픽셀이면 겹침 돼지의 경계선 부분에 해당한다고 가정하고, 이를 이용하여 겹침이 발생한 두 마리의 돼지를 개별 돼지로써 최종적으로 분리한다. 경계 상자 내부의 픽셀 값에 대하여 임계 값을 자동으로 설정하는 Otsu 기법은 해당 기술분야의 통상의 기술자에 의해 이해될 수 있을 것이다.
S100: 돈사 천장에 설치된 모니터링 CCTV 단말기로부터 돈사를 촬영하여 깊이 영상을 획득하는 단계.
S200: S100에서 획득한 깊이 영상에서 겹침 돼지를 탐지하고 적용하여 YOLO 학습 영상 및 테스트 영상을 획득하는 단계.
S300: S200에서 YOLO 학습을 위해 획득한 영상에 겹침 돼지의 경계선 영역을 표시한 후 해당 영상을 수만 번 이상 학습하여 목표 신뢰도에 달성한 경계 상자 정보를 획득하기 위한 학습 모델을 생성하는 단계.
S400: S300에서 생성된 학습 모델을 이용하여 레이블링된 영상을 획득하는 단계.
S500: S400단계에서 결과로 획득한 겹침 돼지 탐지 영상에 대하여 해당 영상을 10도씩 회전시킴으로써 5장의 회전된 영상을 획득하고 0도의 영상을 포함하여 총 6장의 증폭(augmentation)된 영상을 획득하는 단계.
S600: S500 단계에서 증폭된 6장의 영상에 대하여 탐지됨으로써 생성된 경계 상자의 가로/세로 길이 비율의 차이를 계산하여 가장 큰 비율 차이의 영상을 대표 영상으로 선정하는 단계.
S700: S600 단계에서 획득한 영상 내 겹침을 발생시킨 돼지와 겹침을 당한 돼지의 구분을 뚜렷하게 하기 위하여 히스토그램 평활화를 적용하여 영상 내 명암을 조정하는 단계.
S800: S700 단계에서 명암이 조정된 영상에 Otsu 기법을 적용함으로써 겹침이 발생된 두 마리의 돼지를 개별 돼지로써 분리하는 단계.

Claims (3)

  1. 적외선 센서 기반 깊이 영상 획득이 가능한 모니터링 CCTV 단말기에서 획득한 깊이 영상을 이용하여 돈사 내의 돼지를 구분하는 돼지 구분 방법으로써,
    (1) 상기 모니터링 CCTV 단말기에서 돈사를 촬영하여 깊이 영상을 획득하는 단계;
    (2) 상기 단계 (1)에서 획득된 깊이 영상에서 겹침을 발생시킨 돼지들을 탐색하고, 겹침 돼지들의 위치 정보를 기반으로 YOLO의 학습 및 테스트에 이용하기 위한 영상을 획득하는 단계;
    (3) 상기 단계 (2)에서 YOLO 학습을 위해 획득한 영상에 겹침 돼지의 경계선 영역을 표시 후 해당 레이블링된 영상을 학습하여 목표 신뢰도에 달성한 경계 상자 정보를 획득할 수 있는 학습 모델을 생성하는 단계;
    (4) 상기 단계 (3)에서 생성된 YOLO 학습 모델을 이용하여 레이블링된 영상을 획득하는 단계;
    (5) 상기 단계 (4)에서 결과로 획득한 YOLO 영상에 해당 영상을 반 시계 방향으로 10도씩 회전시킨 5장의 영상을 추가하여 6장의 증폭(augmentation)된 영상을 얻는 단계;
    (6) 상기 단계 (5)에서 획득한 증폭된 영상 중에서 경계 상자의 가로/세로 비율의 차이를 이용하여 가장 비율 차이가 큰 영상을 선택하는 대표 영상 선정의 단계;
    (7) 상기 단계 (6)에서 획득한 대표 영상의 겹침을 발생시킨 돼지와 겹침을 당한 돼지, 두 마리의 경계선을 뚜렷하게 하기 위하여 히스토그램 평활화를 적용하는 단계; 및
    (8) 상기 단계 (7)의 영상을 Otsu 기법을 적용하여 두 돼지를 분리하는 단계를 포함하는 것을 그 구성상의 특징으로 하는 겹침 돼지 분리 방법.
  2. 제1항에 있어서, 상기 단계 (5)는,
    영상 내 객체(돼지)를 10도씩 회전시키고 이러한 결과를 기반으로 영상을 증폭(augmentation)하는 방법.
  3. 제1항에 있어서, 상기 단계 (6)은,
    YOLO로부터 겹침 돼지를 탐지하였을 때 생성되는 경계 상자의 가로/세로 길이 비율을 계산하여 가장 큰 차이가 발생하는 영상을 선정하는 방법.
KR1020190045479A 2019-04-18 2019-04-18 Yolo 기반 경계 상자의 회전을 통한 겹침 돼지 분리 방법 KR20200123323A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190045479A KR20200123323A (ko) 2019-04-18 2019-04-18 Yolo 기반 경계 상자의 회전을 통한 겹침 돼지 분리 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190045479A KR20200123323A (ko) 2019-04-18 2019-04-18 Yolo 기반 경계 상자의 회전을 통한 겹침 돼지 분리 방법

Publications (1)

Publication Number Publication Date
KR20200123323A true KR20200123323A (ko) 2020-10-29

Family

ID=73129362

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190045479A KR20200123323A (ko) 2019-04-18 2019-04-18 Yolo 기반 경계 상자의 회전을 통한 겹침 돼지 분리 방법

Country Status (1)

Country Link
KR (1) KR20200123323A (ko)

Similar Documents

Publication Publication Date Title
US9990546B2 (en) Method and apparatus for determining target region in video frame for target acquisition
Lookingbill et al. Reverse optical flow for self-supervised adaptive autonomous robot navigation
US8744125B2 (en) Clustering-based object classification
US20220004818A1 (en) Systems and Methods for Evaluating Perception System Quality
CN109829382B (zh) 基于行为特征智能分析的异常目标预警追踪系统及方法
CN113962274B (zh) 一种异常识别方法、装置、电子设备及存储介质
Ji et al. RGB-D SLAM using vanishing point and door plate information in corridor environment
US20190096066A1 (en) System and Method for Segmenting Out Multiple Body Parts
CN105469380A (zh) 对于对象的遮挡进行检测的方法和装置
KR20200123324A (ko) 연결 요소 분석 기법과 yolo 알고리즘을 이용한 돼지 겹침 객체 분리 방법
JP2024514175A (ja) 鳥の検出および種決定
CN117274843B (zh) 基于轻量级边缘计算的无人机前端缺陷识别方法及系统
CN117475353A (zh) 基于视频的异常烟雾识别方法及系统
CN117423157A (zh) 一种结合迁移学习、区域入侵的矿井下异常视频动作理解方法
US20240273908A1 (en) Video monitoring device, and method, computer program and storage medium for retraining a video monitoring device
CN111160150A (zh) 基于深度残差神经网络卷积的视频监控人群行为的识别方法
KR20200123323A (ko) Yolo 기반 경계 상자의 회전을 통한 겹침 돼지 분리 방법
Nguyen et al. An improvement of the camshift human tracking algorithm based on deep learning and the Kalman filter
Khan et al. Multiple moving vehicle speed estimation using Blob analysis
CN111476129A (zh) 一种基于深度学习的土壤杂质检测方法
Klammsteiner et al. Vision Based Stationary Railway Track Monitoring System
CN113392678A (zh) 行人检测方法、设备和存储介质
Wenning et al. Anomaly detection as vision-based obstacle detection for vehicle automation in industrial environment
CN117115923B (zh) 一种基于图像识别算法的智慧农业人员行为识别系统
CN118657934B (zh) 基于图像的石化工厂异物闯入检测方法及装置