KR101910843B1 - Method for depth based pig segmentation using concave-points and superpixel information - Google Patents

Method for depth based pig segmentation using concave-points and superpixel information Download PDF

Info

Publication number
KR101910843B1
KR101910843B1 KR1020170051904A KR20170051904A KR101910843B1 KR 101910843 B1 KR101910843 B1 KR 101910843B1 KR 1020170051904 A KR1020170051904 A KR 1020170051904A KR 20170051904 A KR20170051904 A KR 20170051904A KR 101910843 B1 KR101910843 B1 KR 101910843B1
Authority
KR
South Korea
Prior art keywords
point
concave
pig
depth
points
Prior art date
Application number
KR1020170051904A
Other languages
Korean (ko)
Inventor
주미소
백한솔
김진성
정용화
박대희
김학재
Original Assignee
주식회사 클래스액트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 클래스액트 filed Critical 주식회사 클래스액트
Priority to KR1020170051904A priority Critical patent/KR101910843B1/en
Application granted granted Critical
Publication of KR101910843B1 publication Critical patent/KR101910843B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • G06K9/00362
    • G06K9/3233
    • G06K9/38
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a method to distinguish pigs adjacent to each other from an image photographed by a closed cable television (CCTV) terminal installed in a pigpen. According to the present invention, the method comprises: a step (1) of photographing pigs inside a pig room by a monitoring CCTV terminal to acquire a digitized depth image; a step (2) of acquiring a region of interest (ROI); a step (3) of fixing two neighboring points with a predetermined interval in an ROI image to generate time-series data; a step (4) of extracting a concave point with a point having a minimum value from the time-series data; a step (5) of using the concave point to define start and end points; a step (6) of using the start and end points to fix a boundary extraction area; a step (7) of using a superpixel found from the depth image within the boundary extraction area to fix points in contact with each boundary line as a node so as to generate a graph; and a step (8) of separating and distinguishing the pigs adjacent to each other with respect to the shortest path on the graph.

Description

오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법{METHOD FOR DEPTH BASED PIG SEGMENTATION USING CONCAVE-POINTS AND SUPERPIXEL INFORMATION}METHOD FOR DEPTH BASED PIG SEGMENTATION USING CONCAVE-POINTS AND SUPERPIXEL INFORMATION BACKGROUND OF THE INVENTION 1. Field of the Invention < RTI ID = 0.0 >

본 발명은 돈사(豚舍) 내에 설치된 CCTV 단말기로 촬영한 영상에서 서로 근접한 돼지를 구분하는 방법에 관한 것으로서, 보다 구체적으로는 오목점과 슈퍼픽셀 정보를 이용해 서로 근접한 돼지 간의 경계선을 판단하여 돼지를 구분할 수 있는, 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법에 관한 것이다.The present invention relates to a method for distinguishing pigs close to each other in an image captured by a CCTV terminal installed in a pig house, more specifically, using a concave point and super-pixel information to determine a boundary line between adjacent pigs, Based proximity pig discrimination method using a concave dot and super pixel information.

농·축산업에도 정보통신기술 도입이 가속화되면서 스마트 팜(Smart farm)이 도입되고 있다. 스마트 팜은 사물 인터넷(Internet of Things, IoT) 기술을 이용하여 자동화된 관리가 이루어지는 농장으로, 스마트 팜이 구현된 농장은 농작물 재배 시설의 온도 및 습도 등을 분석하고 분석 결과에 따라 농장의 상태가 제어될 수 있다.
Smart farms are being introduced as the introduction of ICT is accelerating in agriculture and livestock industries. Smart Farm is a farm where automated management is performed by using Internet of Things (IoT) technology. The farm where smart farm is implemented analyzes the temperature and humidity of the crop cultivation facility, and according to the analysis result, .

스마트 팜은 농작물 재배 시설뿐만 아니라 돈사(豚舍)에도 적용되고 있으며, 일반적으로 사물 인터넷 기술이 적용된 돈사를 스마트 돈사(Smart 豚舍)라고 한다. 이러한 스마트 돈사에서는 사물 인터넷 기술을 이용해 돈사 내의 상황을 실시간으로 확인하고, 온도나 습도 등을 제어할 수 있다. 특히, 스마트 돈사에서 개별적으로 돼지의 상태를 모니터링하고 분석할 수 있는 시스템이 개발되고 있는데, 이러한 분석 시스템은 값비싼 시설제어 기술을 기반으로 구축된다. 따라서 시설제어 기술 기반의 개별 돼지 상태 분석 시스템은 돈육 생산 환경에 대한 대규모 투자가 이루어지는 선진국 위주로 도입되고 있는 상황이며, 국내의 영세 양돈업자는 비용적인 문제로 이러한 시스템을 도입할 수가 없는 실정이다.
Smart farms are applied not only to crop cultivation facilities but also to pig farms. Smart pig farms, which are generally applied to the Internet technology of things, are called Smart pig farms. In such a smart puzzle company, it is possible to check real-time situation of a pig company using object internet technology, and to control temperature and humidity. In particular, smart pens are developing systems that can monitor and analyze the condition of individual pigs, which are built on costly facility control techniques. Therefore, individual pig status analysis system based on facility control technology is being introduced mainly in developed countries where large investment is made in pork production environment, and domestic pork producers can not introduce such a system because of cost problem.

한편, 스마트 돈사에서 시설제어 기술과는 별개로, CCTV 단말기를 이용하여 개별 돼지의 상태를 분석할 수 있는 기술에 대한 연구가 진행되고 있다. 이러한 개별 돼지 상태 분석용 CCTV 기술을 이용하면, 돈사 내의 상황을 실시간으로 확인하고, 돈사에 제공되고 있는 온도, 습도, 음수, 사료 등에 따라 돼지들이 어떻게 반응하는지를 확인하는 것뿐만 아니라, CCTV 영상 추적을 통해 개별 돼지의 질병, 발육상태 등을 파악할 수 있다.
On the other hand, apart from facility control technology, studies on technology for analyzing the status of individual pigs using CCTV terminal are under way in Smart Pig. Using CCTV technology for analyzing individual pigs' condition, it is possible to check the situation in the pig house in real time and to check how pigs react according to the temperature, humidity, It is possible to understand disease and development status of individual pigs.

개별 돼지 상태 분석용 CCTV 기술은 기존 시설제어 기반 양돈 관리 기술과 비교하여 매우 저렴한 비용으로 돈육의 생산성을 크게 개선할 수 있으며, 특히 국내 영세 양돈 환경에 적합한 기술이다. 그러나 개별 돼지 상태 분석용 CCTV 기술은 RGB 카메라를 이용하는 경우 모니터링 CCTV 단말기 가격이 상승될 우려가 있으며, 또한 야간에 조명이 없는 돈사의 돈방 내에서 돼지가 서로 근접해있는 경우 돼지를 개별적으로 구분할 수 없는 문제점이 있었다.
CCTV technology for individual pig status analysis can significantly improve the productivity of pork at a very low cost compared to existing facility control based pig managment technology and is especially suitable for domestic pig farming environment. However, the CCTV technology for analyzing the individual pig condition may cause the monitoring CCTV terminal price to rise when the RGB camera is used. Also, when the pigs are close to each other in the piggy bank without illumination at night, .

한편, 영상처리 분야에서 사용되는 슈퍼픽셀(Superpixel) 알고리즘은 이미지의 중복성을 포착하여 의미 영역을 그룹화하는 기술이다. 이러한 슈퍼픽셀 알고리즘은 주로 이미지의 깊이 추정, 객체 분할, 객체 위치 추정 등에 사용된다. 슈퍼픽셀 알고리즘에서 슈퍼픽셀 경계를 추출하기 위해서는 슬릭(SLIC)을 사용하는데, 슬릭(SLIC)은 먼저 설정한 간격으로 초기 클러스터(Cluster)의 중심을 격자 간격으로 샘플링한다. 그리고 클러스터의 가장자리부터 탐색하여 클러스터를 개선하고, 다시 클러스터의 중심을 설정한다. 이러한 과정을 미리 설정한 반복 횟수만큼 반복하여 슈퍼픽셀을 계산할 수 있다.
On the other hand, the Superpixel algorithm used in the image processing field is a technology for grouping semantic regions by capturing redundancy of images. These superpixel algorithms are mainly used for image depth estimation, object segmentation, and object localization. In the super pixel algorithm, SLIC is used to extract the superpixel boundary, and SLIC samples the center of the initial cluster at the interval set in the grid interval. Then, the cluster is searched from the edge of the cluster to improve the cluster, and the center of the cluster is set again. This process can be repeated for a predetermined number of repetitions to calculate super pixels.

한편, 스마트 팜과 관련된 선행기술로, 한국 등록특허 제10-1072881호 ‘농축산 시설의 원격 관리 시스템’ 등이 제시된 바 있다.Meanwhile, Korean Patent No. 10-1072881 " remote management system of agriculture and livestock facility " has been proposed as a prior art related to smart farm.

본 발명은 기존에 제안된 방법들의 상기와 같은 문제점들을 해결하기 위해 제안된 것으로서, 모니터링 CCTV에 IR 방식의 깊이 카메라를 사용함으로써, 야간에 조명이 없는 돈사의 돈방 내에서도 깊이 카메라에서 획득한 깊이 영상 정보만을 이용하여 오목점을 추출하고, 오목점 근처의 슈퍼픽셀 정보를 이용하여 개별 돼지를 구분할 수 있는, 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법을 제공하는 것을 그 목적으로 한다.
The present invention has been proposed in order to solve the above-mentioned problems of the previously proposed methods. By using the depth camera of the IR system in the monitoring CCTV, the depth image information The present invention aims to provide a depth-based proximity pig classification method using a concave point and superpixel information, which can distinguish individual pigs using superpixel information near a concave point.

또한, 본 발명은, 모니터링 CCTV에 IR 방식의 깊이 카메라를 사용함으로써, RGB 카메라를 사용하는 모니터링 CCTV 단말기의 가격을 최소화할 수 있는, 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법을 제공하는 것을 그 목적으로 한다.Further, the present invention provides a depth-based proximity pig classification method using a concave point and super pixel information that can minimize the price of a monitoring CCTV terminal using an RGB camera by using an IR type depth camera for monitoring CCTV The purpose of that is to do.

상기한 목적을 달성하기 위한 본 발명의 특징에 따른 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법은,According to an aspect of the present invention, there is provided a depth-based proximity pig classification method using a concave point and super pixel information,

IR 방식의 깊이 카메라를 사용하는 모니터링 CCTV 단말기에서 획득한 깊이 영상 정보를 이용하여 돈방 내의 돼지를 구분하는 돼지 구분 방법으로서,Monitoring using IR-based depth camera A pig identification method for distinguishing pigs in a piggy bank using depth image information obtained from a CCTV terminal,

(1) 상기 모니터링 CCTV 단말기에서 돈방 내의 돼지를 촬영하여 이진화된 깊이 영상을 획득하는 단계;(1) acquiring a binned depth image by photographing a pig in a money bag at the monitoring CCTV terminal;

(2) 상기 단계 (1)에서 획득된 깊이 영상에서 서로 근접한 돼지가 발생하여 분리가 필요한 경우, 서로 근접한 돼지에서 객체 분리가 필요한 영역을 관심구역으로 설정하고, 상기 관심구역 영상을 획득하는 단계;(2) acquiring the region of interest in the depth image obtained in the step (1) as an area of interest in a pig close to each other when the pig is adjacent to the depth image obtained in the step (1);

(3) 상기 단계 (2)에서 획득된 관심구역 영상에서 상기 관심구역의 외곽선을 탐색하되, 상기 외곽선 상의 탐색점 전후로 미리 정해진 간격을 가지는 2개의 인접점을 지정하여 시계열 데이터를 생성하는 단계;(3) searching for an outline of the region of interest on the ROI image obtained in the step (2), designating two adjacent points having a predetermined interval before and after the search point on the outline, and generating time series data;

(4) 상기 단계 (3)에서 생성된 시계열 데이터에서 최소값을 가지는 점을 오목점으로 추출하는 단계;(4) extracting a point having a minimum value from the time series data generated in the step (3) as a concave point;

(5) 상기 단계 (4)에서 추출된 오목점을 이용하여 시작점과 끝점을 정의하는 단계;(5) defining a start point and an end point using the concave point extracted in the step (4);

(6) 상기 단계 (5)에서 정의된 상기 시작점과 끝점을 이용하여 경계 추출 영역을 지정하는 단계;(6) designating a boundary extraction region using the starting point and the ending point defined in the step (5);

(7) 상기 단계 (6)에서 지정된 상기 경계 추출 영역 내부에서 상기 깊이 영상에서 구해진 슈퍼픽셀을 이용하여 각각의 경계선이 만나는 점들을 노드로 지정하여 그래프를 생성하는 단계; 및(7) generating a graph by designating points where the respective boundary lines meet, using super pixels obtained from the depth image within the boundary extracting area specified in step (6); And

(8) 상기 단계 (7)에서 생성된 그래프에서 상기 시작점부터 상기 끝점까지 상기 노드상의 최단 경로를 구한 후, 해당 최단 경로를 기준으로 서로 근접한 돼지를 분리하여 구분하는 단계를 포함하는 것을 그 구성상의 특징으로 한다.
(8) a step of obtaining a shortest path on the node from the starting point to the end point in the graph generated in the step (7), and separating and separating the pigs close to each other on the basis of the shortest path, .

바람직하게는, 상기 단계 (3)은,Preferably, the step (3)

상기 탐색점과 상기 2개의 인접점으로 구성된 삼각형의 넓이를 계산하여 시계열 데이터를 생성할 수 있다.
Time-series data can be generated by calculating the width of the triangle formed by the search point and the two adjacent points.

바람직하게는, 상기 단계 (3)은,Preferably, the step (3)

상기 관심구역의 외곽선을 반시계 방향으로 탐색할 수 있다.
The outline of the area of interest can be searched counterclockwise.

바람직하게는, 상기 단계 (3)은,Preferably, the step (3)

상기 미리 정해진 간격은 상기 관심구역의 외곽선의 전체 길이의 5~20%인 간격일 수 있다.
The predetermined interval may be an interval of 5-20% of the entire length of the outline of the area of interest.

바람직하게는, 상기 단계 (5)는,Advantageously, said step (5)

상기 단계 (4)에서 추출된 오목점의 개수가 2개인 경우 2개의 오목점을 각각 시작점과 끝점으로 정의하고, 상기 단계 (4)에서 추출된 오목점의 개수가 1개인 경우 상기 오목점을 시작점으로, 상기 오목점 및 상기 오목점과 매칭되는 상기 2개의 인접점들이 이루는 각도를 반으로 분할하는 직선을 구하여 상기 직선과 상기 관심영역의 외곽선이 만나는 점을 끝점으로 정의할 수 있다.
If the number of the concave points extracted in the step (4) is 2, the two concave points are defined as the starting point and the end point, respectively. If the number of the concave points extracted in the step (4) is 1, A straight line that divides the angle between the concave point and the two adjacent points that are matched with the concave point is divided into half and a point at which the straight line and the outline of the RO meet meet can be defined as an end point.

바람직하게는, 상기 단계 (6)은,Advantageously, said step (6)

상기 시작점과 매칭되는 상기 2개의 인접점 간격만큼의 폭을 가지는 직사각형을 경계 추출 영역으로 지정할 수 있다.
A rectangle having a width corresponding to the two adjacent point intervals matching the starting point can be designated as the boundary extraction area.

바람직하게는, 상기 단계 (7)은,Advantageously, said step (7)

상기 단계 (6)에서 지정된 경계 추출 영역에서 슬릭(SLIC)을 이용하여 슈퍼픽셀을 구할 수 있다.
A super pixel can be obtained using SLIC in the boundary extracting area specified in step (6).

바람직하게는, 상기 단계 (1)은,Preferably, the step (1)

히스토그램 평활화 기법을 적용하여 깊이 값을 보정한 이진화된 영상을 획득할 수 있다.The histogram smoothing technique can be applied to obtain the binarized image with the corrected depth value.

본 발명에서 제안하고 있는 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법에 따르면, 모니터링 CCTV에 IR 방식의 깊이 카메라를 사용함으로써, 야간에 조명이 없는 돈사의 돈방 내에서도 깊이 카메라에서 획득한 깊이 영상 정보만을 이용하여 오목점을 추출하고, 오목점 근처의 슈퍼픽셀 정보를 이용하여 개별 돼지를 구분할 수 있다.
According to the depth-based proximity pig classification method using the concave point and super-pixel information proposed in the present invention, by using an IR type depth camera for the monitoring CCTV, the depth obtained by the depth camera even in the pig- It is possible to extract the concave points using only the image information and distinguish the individual pigs using the super pixel information near the concave points.

또한, 본 발명에 따르면, 모니터링 CCTV에 IR 방식의 깊이 카메라를 사용함으로써, RGB 카메라를 사용하는 모니터링 CCTV 단말기의 가격을 최소화할 수 있다.In addition, according to the present invention, by using an IR depth camera for the monitoring CCTV, the price of the monitoring CCTV terminal using the RGB camera can be minimized.

도 1은 본 발명의 일 실시예에 따른 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법의 각각의 단계를 도시한 도면.
도 2는 본 발명의 일 실시예에 따른 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법에서 돈사 내 돈방에 설치된 카메라를 도시한 도면.
도 3은 본 발명의 일 실시예에 따른 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법에서 서로 근접한 돼지가 발생하여 2마리의 돼지가 구분되지 않는 프레임의 관심영역 영상을 도시한 도면.
도 4는 본 발명의 일 실시예에 따른 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법에서 서로 근접한 돼지의 관심영역의 외곽선으로부터 시계열 데이터를 생성하고 오목점을 추출하는 모습을 도시한 도면.
도 5는 본 발명의 일 실시예에 따른 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법에서 추출된 오목점이 1개인 경우, 경계 추출 영역을 지정하는 모습을 도시한 도면.
도 6은 본 발명의 일 실시예에 따른 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법에서 슬릭(SLIC)을 이용하여 구한 슈퍼픽셀 및 경로 그래프를 도시한 도면.
도 7은 본 발명의 일 실시예에 따른 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법에서 관심영역이 최단 경로에 의해 2마리의 돼지로 분리된 모습을 도시한 도면.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram showing each step of a depth-based proximity pig classification method using a concave point and superpixel information according to an embodiment of the present invention; FIG.
FIG. 2 is a view illustrating a camera installed in a money pouch in a pig house in a depth-based proximity pig classification method using a concave point and super pixel information according to an embodiment of the present invention.
FIG. 3 is a view showing an interest region image of a frame in which two pigs are not distinguished from each other due to the occurrence of pigs close to each other in the depth-based proximity pig classification method using the concave point and super pixel information according to an embodiment of the present invention.
FIG. 4 is a view showing a state in which time-series data is generated from the outline of a region of interest of a pig close to each other and a concave point is extracted in a depth-based proximity pig classification method using a concave point and super pixel information according to an embodiment of the present invention .
5 is a view showing a state in which a boundary extraction region is designated when one concave point extracted in the depth-based proximity pig classification method using the concave point and super pixel information according to an embodiment of the present invention is used.
6 is a diagram illustrating a superpixel and a path graph obtained by SLIC in a depth-based proximity pig classification method using a concave point and superpixel information according to an embodiment of the present invention.
FIG. 7 is a view showing a region of interest separated into two pigs by a shortest path in a depth-based proximity pig classification method using a concave point and superpixel information according to an embodiment of the present invention; FIG.

이하에서는 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일 또는 유사한 부호를 사용한다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. In the following detailed description of the preferred embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The same or similar reference numerals are used throughout the drawings for portions having similar functions and functions.

덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 ‘연결’되어 있다고 할 때, 이는 ‘직접적으로 연결’되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 ‘간접적으로 연결’되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 ‘포함’한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.
In addition, in the entire specification, when a part is referred to as being 'connected' to another part, it may be referred to as 'indirectly connected' not only with 'directly connected' . Also, to "include" an element means that it may include other elements, rather than excluding other elements, unless specifically stated otherwise.

도 1은 본 발명의 일 실시예에 따른 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법의 각각의 단계를 도시한 도면이다. 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법은, 모니터링 CCTV 단말기에서 돈방 내의 돼지를 촬영하여 이진화된 깊이 영상을 획득하는 단계(S100), 단계 S100에서 획득된 깊이 영상에서 서로 근접한 돼지가 발생하여 분리가 필요한 경우, 서로 근접한 돼지에서 객체 분리가 필요한 영역을 관심구역으로 설정하고, 관심구역 영상을 획득하는 단계(S200), S200에서 획득된 관심구역 영상에서 관심구역의 외곽선을 탐색하되, 외곽선 상의 탐색점 전후로 미리 정해진 간격을 가지는 2개의 인접점을 지정하여 시계열 데이터를 생성하는 단계(S300), S300에서 생성된 시계열 데이터에서 최소값을 가지는 점을 오목점으로 추출하는 단계(S400), S400에서 추출된 오목점을 이용하여 시작점과 끝점을 정의하는 단계(S500), S500에서 정의된 시작점과 끝점을 이용하여 경계 추출 영역을 지정하는 단계(S600), S600에서 지정된 경계 추출 영역 내부에서 깊이 영상에서 구해진 슈퍼픽셀을 이용하여 각각의 경계선이 만나는 점들을 노드로 지정하여 그래프를 생성하는 단계(S700), 및 S700에서 생성된 그래프에서 시작점부터 끝점까지의 최단 경로를 구한 후, 해당 최단 경로를 기준으로 서로 근접한 돼지를 분리하여 구분하는 단계(S800)를 포함할 수 있다. 본 발명의 각각의 단계는, 실시 예에 따라서 CCTV 단말기에 포함된 제어부에서 수행될 수 있으며, 또는 별도의 서버에서 수행될 수 있다. 이하에서는, 본 발명의 일 실시예에 따른 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법의 각각의 단계에 대해 상세히 설명하기로 한다.
FIG. 1 is a diagram illustrating respective steps of a depth-based proximity pig classification method using a concave point and superpixel information according to an embodiment of the present invention. 1, a depth-based proximity pig classification method using a concave point and super pixel information according to an exemplary embodiment of the present invention includes acquiring a binned depth image by photographing a pig in a money bag in a monitoring CCTV terminal A step S200 of setting an area in which the object to be separated in the pig close to each other is set as an area of interest and a region of interest image is obtained when a pig close to each other is generated in the depth image obtained in the step S100, The time series data is generated by searching for an outline of a region of interest in the interest region image obtained in S200 by designating two adjacent points having a predetermined interval before and after the search point on the outline (S300). In the step S300, Extracting a point having a minimum value as a concave point (S400), and determining a starting point and an end point using the concave point extracted in S400 A step S600 of designating a boundary extracting area using the starting point and the ending point defined in S500, a step S600 of using the super pixel obtained from the depth image in the boundary extracting area designated in S600, A shortest path from the start point to the end point is obtained in the graph generated in step S700, and the pigs separated from each other on the basis of the shortest path are separated (S800) . ≪ / RTI > Each step of the present invention can be performed in the control unit included in the CCTV terminal according to the embodiment, or can be performed in a separate server. Hereinafter, each step of the depth-based proximity pig classification method using the concave point and super pixel information according to an embodiment of the present invention will be described in detail.

단계 S100에서는, 모니터링 CCTV 단말기에서 돈방 내의 돼지를 촬영하여 이진화된 깊이 영상을 획득할 수 있다. 여기서, 모니터링 CCTV 단말기는 IR 방식의 깊이 카메라(Depth camera)를 사용할 수 있다.
In step S100, the monitoring CCTV terminal can acquire a binned depth image by photographing a pig in a money bag. Here, the monitoring CCTV terminal can use the IR depth camera.

도 2는 본 발명의 일 실시예에 따른 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법에서 돈사 내 돈방에 설치된 카메라를 도시한 도면이다. 본 발명의 실시예에 따라서는, 깊이 카메라는 도 2에 도시된 바와 같이 돈사 내 돈방에서 3m 높이에 설치되며, 돈방 내 돼지를 촬영하여 이진화된 깊이 영상을 획득한다. 이때, 단계 S100에서는, 깊이 영상에서 깊이 값의 정확도를 개선하기 위해 히스토그램 평활화 기법을 적용하여 깊이 값을 보정한 이진화된 영상을 획득할 수 있다.
2 is a view showing a camera installed in a money pouch in a piggy bank in a depth-based proximity pig classification method using a concave point and super pixel information according to an embodiment of the present invention. According to an embodiment of the present invention, the depth camera is installed at a height of 3 m from the money room in the pig, as shown in FIG. 2, and acquires the binarized depth image by photographing the pig in the pig pool. At this time, in step S100, a binarized image obtained by correcting the depth value can be obtained by applying the histogram smoothing technique to improve the accuracy of the depth value in the depth image.

단계 S200에서는, 단계 S100에서 획득된 깊이 영상에서 서로 근접한 돼지가 발생하여 구분이 필요한 경우, 서로 근접한 돼지에서 객체 분리가 필요한 부분을 관심구역으로 설정하고, 관심구역 영상을 획득할 수 있다.
In step S200, if a pig close to each other is generated in the depth image obtained in step S100 and a distinction is required, a part that requires object separation in a pig close to each other can be set as an area of interest and a region of interest image can be obtained.

도 3은 본 발명의 일 실시예에 따른 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법에서 서로 근접한 돼지가 발생하여 2마리의 돼지가 구분되지 않는 프레임의 관심영역 영상을 도시한 도면이다. 단계 S200에서 서로 근접한 돼지가 발생하여 구분이 필요한 경우는, 도 3에 도시된 바와 같이, 돼지가 서로 근접해있어 이진화된 영상에서 돼지들이 하나로 연결된 상태를 말한다. 이러한 경우에 이진화된 영상에서 2마리의 돼지가 각각의 돼지가 아닌 하나의 돼지로 판별될 수 있다. 따라서 서로 근접한 돼지를 개별적으로 구분할 수 있도록 객체 분리가 필요하다.
3 is a view showing a region of interest of a frame in which two pigs are separated from each other due to the occurrence of pigs close to each other in the depth-based proximity pig classification method using the concave point and the super pixel information according to an embodiment of the present invention . In step S200, when pigs close to each other are generated, the pigs are in close proximity to each other as shown in FIG. 3, and the pigs are connected to each other in the binarized image. In this case, in the binarized image, two pigs can be identified as one pig, not each pig. Therefore, object separation is necessary to distinguish pigs that are close to each other.

단계 S300에서는, 단계 S200에서 획득한 관심구역 영상에서 관심구역의 외곽선을 탐색하되, 외곽선 상의 탐색점 전후로 미리 정해진 간격을 가지는 2개의 인접점을 지정하여 시계열 데이터를 생성할 수 있다. 이때, 시계열 데이터는 탐색점과 2개의 인접점으로 구성된 삼격형의 넓이를 계산하여 생성될 수 있다.
In step S300, the contour of the area of interest is searched for in the interest area image acquired in step S200, and two adjacent points having a predetermined interval are specified before and after the search point on the outline, thereby generating time series data. In this case, the time series data can be generated by calculating the width of the triple shape composed of the search point and two adjacent points.

도 4는 본 발명의 일 실시예에 따른 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법에서 서로 근접한 돼지의 관심영역의 외곽선으로부터 시계열 데이터를 생성하고 오목점을 추출하는 모습을 도시한 도면이다. 도 4의 (a)에 도시된 바와 같이, 단계 S300에서는, 관심구역의 외곽선 상의 임의의 점을 탐색점으로 설정하고 탐색점 전후에 미리 정해진 간격을 가지는 2개의 인접점을 지정한다. 여기서, 미리 정해진 간격은, 관심구역의 외곽선의 전체 길이의 5~20%인 간격일 수 있다. 바람직하게는 관심구역의 외곽선의 전체 길이의 10%인 간격일 수 있으나, 이에 한정되는 것은 아니다. 한편, 단계 S300에서는, 관심영역의 외곽선을 시계 방향 또는 반시계 방향으로 탐색할 수 있다. 그리고 단계 S300에서는, 도 4의 (b)에 도시된 바와 같이, 관심영역의 외곽선을 따라 탐색점과 2개의 인접점으로 구성된 삼격형의 넓이를 계산하여 시계열 데이터가 생성될 수 있다.
FIG. 4 is a view showing a state in which time-series data is generated from the outline of a region of interest of a pig close to each other and a concave point is extracted in a depth-based proximity pig classification method using a concave point and super pixel information according to an embodiment of the present invention to be. 4A, in step S300, an arbitrary point on the outline of the area of interest is set as a search point, and two adjacent points having a predetermined interval before and after the search point are specified. Here, the predetermined interval may be an interval of 5-20% of the total length of the outline of the area of interest. But may be, but is not limited to, 10% of the total length of the outline of the area of interest. On the other hand, in step S300, the outline of the region of interest can be searched clockwise or counterclockwise. In step S300, as shown in FIG. 4B, time series data may be generated by calculating the widths of the three-dimensional shape including the search point and the two adjacent points along the outline of the ROI.

단계 S400에서는, 단계 S300에서 생성된 시계열 데이터에서 최소값을 가지는 점을 오목점으로 추출할 수 있다. 이러한 오목점은 서로 근접한 돼지를 분리하는데 기준점으로 사용된다.
In step S400, a point having a minimum value in the time series data generated in step S300 can be extracted as a concave point. These concave points are used as a reference point for separating pigs close to each other.

단계 S500에서는, 단계 S400에서 추출된 오목점을 이용하여 시작점과 끝점을 정의할 수 있다. 보다 구체적으로, 단계 S400에서 추출된 오목점의 개수가 2개인 경우 2개의 오목점을 각각 시작점과 끝점으로 정의할 수 있다. 또는, 단계 S400에서 추출된 오목점의 개수가 1개인 경우 오목점을 시작점으로, 오목점 및 오목점과 매칭되는 2개의 인접점들이 이루는 각도를 반으로 분할하는 직선을 구하여 직선과 관심영역의 외곽선이 만나는 점을 끝점으로 정의할 수 있다.
In step S500, the start point and the end point can be defined using the concave point extracted in step S400. More specifically, when the number of concave points extracted in step S400 is two, two concave points can be defined as a starting point and an ending point, respectively. Alternatively, if the number of concave points extracted in step S400 is 1, a straight line dividing the angle formed by two adjacent points matching the concave and concave points with the concave point as the starting point is obtained, and the straight line and the outline Can be defined as an end point.

단계 S600에서는, 단계 S500에서 정의된 시작점과 끝점을 이용하여 경계 추출 영역을 지정할 수 있다.
In step S600, the boundary extraction area can be designated using the starting point and the ending point defined in step S500.

도 5는 본 발명의 일 실시예에 따른 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법에서 추출된 오목점이 1개인 경우, 경계 추출 영역을 지정하는 모습을 도시한 도면이다. 도 5에 도시된 바와 같이, 단계 S400에서 추출된 오목점의 개수가 1개인 경우, 단계 S500에서는, 오목점을 시작점으로 정의할 수 있다. 또한, 단계 S500에서는, 오목점 및 오목점과 매칭되는 2개의 인접점들이 이루는 각도를 반으로 분할하는 직선을 구하고, 해당 직선과 관심영역의 외곽선이 만나는 점을 끝점으로 정의할 수 있다. 이때, 시작점과 끝점은 동일한 직선상에 위치한다. 단계 S600에서는, 시작점과 매칭되는 2개의 인접점 간격만큼의 폭을 가지는 직사각형을 경계 추출 영역으로 지정할 수 있으며, 직사각형의 긴 변은 직선과 평행하다. 한편, 단계 S600에서는, 오목점이 2개인 경우, 2개의 오목점을 각각 시작점과 끝점으로 하여 경계 추출 영역으로 지정할 수 있다.
FIG. 5 is a view illustrating a method of specifying a boundary extraction region when there is one concave point extracted in the depth-based proximity pig classification method using the concave point and super-pixel information according to an embodiment of the present invention. As shown in Fig. 5, if the number of concave points extracted in step S400 is 1, the concave point can be defined as the starting point in step S500. In step S500, a straight line that divides the angle formed by two adjacent points that are matched with the concave and the concave points is obtained, and a point where the straight line and the outline of the ROI meet each other can be defined as an end point. At this time, the starting point and the ending point are located on the same straight line. In step S600, a rectangle having a width corresponding to two adjacent point intervals matching the starting point can be designated as the boundary extraction area, and the long side of the rectangle is parallel to the straight line. On the other hand, in step S600, when there are two concave points, the two concave points can be designated as the boundary extraction area as the start point and the end point, respectively.

단계 S700에서는, 단계 S600에서 지정한 경계 추출 영역 내부에서 깊이 영상에서 구해진 슈퍼픽셀을 이용하여 각각의 경계선이 만나는 점들을 노드로 지정하여 그래프를 생성할 수 있다. 이때, 단계 S700에서는, 단계 S600에서 지정된 경계 추출 영역에서 슬릭(SLIC)을 이용하여 슈퍼픽셀을 구할 수 있다. 본 발명에서 사용되는 슈퍼픽셀 알고리즘과, 슈퍼픽셀을 구하기 위한 슬릭(SLIC)은 해당 기술분야의 통상의 기술자에 의해 이해될 수 있을 것이다.
In step S700, a super pixel obtained from the depth image in the boundary extracting area designated in step S600 can be used to designate the points where the boundary lines meet to form a graph. At this time, in step S700, a super pixel can be obtained using SLIC in the boundary extracting area specified in step S600. The superpixel algorithm used in the present invention and the SLIC for obtaining a superpixel may be understood by those skilled in the art.

도 6은 본 발명의 일 실시예에 따른 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법에서 슬릭(SLIC)을 이용하여 구한 슈퍼픽셀 및 경로 그래프를 도시한 도면이다. 도 6의 (a)에 도시된 바와 같이, 단계 S700에서는, 슬릭(SLIC)을 이용하여 구해진 슈퍼픽셀을 이용하여 경계 추출 영역 내부에서 각각의 경계선이 만나는 점들을 노드로 설정한다. 그리고 단계 S700에서는, 도 6의 (b)에 도시된 바와 같이, 경계선을 따라 각각의 노드를 연결하여 그래프를 생성할 수 있다.
FIG. 6 is a diagram illustrating a superpixel and a path graph obtained by SLIC in a depth-based proximity pig classification method using a concave point and superpixel information according to an embodiment of the present invention. As shown in FIG. 6A, in step S700, the points where the respective boundary lines meet within the boundary extracting area are set as nodes by using the super pixels obtained using SLIC. In step S700, as shown in (b) of FIG. 6, a graph can be generated by connecting each node along a boundary line.

단계 S800에서는, 단계 S700에서 생성된 그래프에서 시작점부터 끝점까지 노드상의 최단 경로를 구한 후, 해당 최단 경로를 기준으로 서로 근접한 돼지를 분리하여 구분할 수 있다.
In step S800, the shortest path on the node from the start point to the end point may be obtained in the graph generated in step S700, and the pigs close to each other may be separated based on the shortest path.

도 7은 본 발명의 일 실시예에 따른 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법에서 관심영역이 최단 경로에 의해 2마리의 돼지로 분리된 모습을 도시한 도면이다. 도 7에 도시된 바와 같이, 단계 S800에서는, 시작점부터 끝점까지 노드상의 최단 경로를 구하며, 해당 노드를 서로 잇는 경계선을 연결하면 최단 경로가 된다. 단계 S800에서는, 노드상의 경계선을 연결한 최단 경로를 기준으로 서로 근접한 돼지를 분리할 수 있다.
FIG. 7 is a view showing a state in which a region of interest is divided into two pigs by a shortest path in a depth-based proximity pig classification method using a concave point and super pixel information according to an embodiment of the present invention. As shown in FIG. 7, in step S800, the shortest path on the node is obtained from the starting point to the end point, and the shortest path is obtained by connecting the boundary lines connecting the nodes. In step S800, the pigs close to each other can be separated based on the shortest path connecting the boundary lines on the node.

전술한 바와 같이, 본 발명에서 제안하고 있는 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법에 따르면, 모니터링 CCTV에 IR 방식의 깊이 카메라를 사용함으로써, 야간에 조명이 없는 돈사의 돈방 내에서도 깊이 카메라에서 획득한 깊이 영상 정보만을 이용하여 오목점을 추출하고, 오목점 근처의 슈퍼픽셀 정보를 이용하여 개별 돼지를 구분할 수 있다. 또한, 본 발명에 따르면, 모니터링 CCTV에 IR 방식의 깊이 카메라를 사용함으로써, RGB 카메라를 사용하는 모니터링 CCTV 단말기의 가격을 최소화할 수 있다.
As described above, according to the depth-based proximity pig classification method using the concave point and super-pixel information proposed in the present invention, by using the IR-type depth camera for the monitoring CCTV, the depth of the pig- It is possible to extract the concave points using only the depth image information obtained from the camera and to distinguish the individual pigs using the super pixel information near the concave points. In addition, according to the present invention, by using an IR depth camera for the monitoring CCTV, the price of the monitoring CCTV terminal using the RGB camera can be minimized.

이상 설명한 본 발명은 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에 의하여 다양한 변형이나 응용이 가능하며, 본 발명에 따른 기술적 사상의 범위는 아래의 청구범위에 의하여 정해져야 할 것이다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims.

S100: 모니터링 CCTV 단말기로부터 돈방 내의 돼지를 촬영하여 이진화된 깊이 영상을 획득하는 단계
S200: S100에서 획득한 깊이 영상에서 서로 근접한 돼지가 발생하여 분리가 필요한 경우, 서로 근접한 돼지에서 객체 분리가 필요한 영역을 관심구역으로 설정하고, 관심구역 영상을 획득하는 단계
S300: S200에서 획득한 관심구역 영상에서 관심구역의 외곽선을 탐색하되, 외곽선 상의 탐색점 전후로 미리 정해진 간격을 가지는 2개의 인접점을 지정하여 시계열 데이터를 생성하는 단계
S400: S300에서 생성된 시계열 데이터에서 최소값을 가지는 점을 오목점으로 추출하는 단계
S500: S400에서 추출된 오목점을 이용하여 시작점과 끝점을 정의하는 단계
S600: S500에서 정의된 시작점과 끝점을 이용하여 경계 추출 영역을 지정하는 단계
S700: S600에서 지정한 경계 추출 영역 내부에서 깊이 영상에서 구해진 슈퍼픽셀을 이용하여 각각의 경계선이 만나는 점들을 노드로 지정하여 그래프를 생성하는 단계
S800: S700에서 생성된 그래프에서 시작점부터 끝점까지의 최단 경로를 구한 후, 해당 최단 경로를 기준으로 서로 근접한 돼지를 분리하여 구분하는 단계
S100: monitoring CCTV terminal to capture the binned depth image of the pig in the money bag
S200: If a pig close to each other is generated in the depth image acquired in S100 and separation is required, a region requiring an object separation in a pig close to each other is set as an area of interest and a region of interest is acquired
S300: generating the time series data by searching the outline of the region of interest in the interest region image acquired in S200, designating two adjacent points having a predetermined interval before and after the search point on the outline,
S400: extracting a point having a minimum value in the time series data generated in S300 as a concave point
S500: Define a starting point and an end point using the concave point extracted in S400
S600: Step of designating boundary extraction region using starting point and ending point defined in S500
S700: generating a graph by designating points where the respective boundary lines meet by using the super pixels obtained from the depth image within the boundary extraction region designated in S600
S800: The shortest path from the start point to the end point is obtained from the graph generated in S700, and the pigs separated from each other based on the shortest path are separated and classified

Claims (8)

IR 방식의 깊이 카메라를 사용하는 모니터링 CCTV 단말기에서 획득한 깊이 영상 정보를 이용하여 돈방 내의 돼지를 구분하는 돼지 구분 방법으로서,
(1) 상기 모니터링 CCTV 단말기에서 돈방 내의 돼지를 촬영하여 이진화된 깊이 영상을 획득하는 단계;
(2) 상기 단계 (1)에서 획득된 깊이 영상에서 서로 근접한 돼지가 발생하여 분리가 필요한 경우, 서로 근접한 돼지에서 객체 분리가 필요한 영역을 관심구역으로 설정하고, 상기 관심구역 영상을 획득하는 단계;
(3) 상기 단계 (2)에서 획득된 관심구역 영상에서 상기 관심구역의 외곽선을 탐색하되, 상기 외곽선 상의 탐색점 전후로 미리 정해진 간격을 가지는 2개의 인접점을 지정하여 시계열 데이터를 생성하는 단계;
(4) 상기 단계 (3)에서 생성된 시계열 데이터에서 최소값을 가지는 점을 오목점으로 추출하는 단계;
(5) 상기 단계 (4)에서 추출된 오목점을 이용하여 시작점과 끝점을 정의하는 단계;
(6) 상기 단계 (5)에서 정의된 상기 시작점과 끝점을 이용하여 경계 추출 영역을 지정하는 단계;
(7) 상기 단계 (6)에서 지정된 상기 경계 추출 영역 내부에서 상기 깊이 영상에서 구해진 슈퍼픽셀을 이용하여 각각의 경계선이 만나는 점들을 노드로 지정하여 그래프를 생성하는 단계; 및
(8) 상기 단계 (7)에서 생성된 그래프에서 상기 시작점부터 상기 끝점까지 상기 노드상의 최단 경로를 구한 후, 해당 최단 경로를 기준으로 서로 근접한 돼지를 분리하여 구분하는 단계를 포함하며,
상기 단계 (3)은,
상기 탐색점과 상기 2개의 인접점으로 구성된 삼각형의 넓이를 계산하여 시계열 데이터를 생성하는 것을 특징으로 하는, 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법.
Monitoring using IR-based depth camera A pig identification method for distinguishing pigs in a piggy bank using depth image information obtained from a CCTV terminal,
(1) acquiring a binned depth image by photographing a pig in a money bag at the monitoring CCTV terminal;
(2) acquiring the region of interest in the depth image obtained in the step (1) as an area of interest in a pig close to each other when the pig is adjacent to the depth image obtained in the step (1);
(3) searching for an outline of the region of interest on the ROI image obtained in the step (2), designating two adjacent points having a predetermined interval before and after the search point on the outline, and generating time series data;
(4) extracting a point having a minimum value from the time series data generated in the step (3) as a concave point;
(5) defining a start point and an end point using the concave point extracted in the step (4);
(6) designating a boundary extraction region using the starting point and the ending point defined in the step (5);
(7) generating a graph by designating points where the respective boundary lines meet, using super pixels obtained from the depth image within the boundary extracting area specified in step (6); And
(8) calculating a shortest path on the node from the start point to the end point in the graph generated in the step (7), and separating and distinguishing the pigs close to each other based on the shortest path,
The step (3)
Wherein the time series data is generated by calculating a width of a triangle composed of the search point and the two adjacent points, and generating the time series data by using the concave point and the super pixel information.
삭제delete 제1항에 있어서, 상기 단계 (3)은,
상기 관심구역의 외곽선을 반시계 방향으로 탐색하는 것을 특징으로 하는, 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법.
2. The method of claim 1, wherein step (3)
Wherein the contour of the region of interest is searched in a counterclockwise direction.
제1항에 있어서, 상기 단계 (3)은,
상기 미리 정해진 간격은 상기 관심구역의 외곽선의 전체 길이의 5~20%인 간격인 것을 특징으로 하는, 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법.
2. The method of claim 1, wherein step (3)
Wherein the predetermined interval is an interval of 5-20% of the entire length of the contour of the area of interest.
제1항에 있어서, 상기 단계 (5)는,
상기 단계 (4)에서 추출된 오목점의 개수가 2개인 경우 2개의 오목점을 각각 시작점과 끝점으로 정의하고, 상기 단계 (4)에서 추출된 오목점의 개수가 1개인 경우 상기 오목점을 시작점으로, 상기 오목점 및 상기 오목점과 매칭되는 상기 2개의 인접점들이 이루는 각도를 반으로 분할하는 직선을 구하여 상기 직선과 상기 관심구역의 외곽선이 만나는 점을 끝점으로 정의하는 것을 특징으로 하는, 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법.
2. The method of claim 1, wherein step (5)
If the number of the concave points extracted in the step (4) is 2, the two concave points are defined as the starting point and the end point, respectively. If the number of the concave points extracted in the step (4) is 1, Wherein a straight line dividing the angle formed by the two adjacent points that are matched with the concave point and the concave point is obtained and the point where the straight line and the outline of the area of interest meet each other is defined as an end point Depth based proximity pig identification method using point and super pixel information.
제1항에 있어서, 상기 단계 (6)은,
상기 시작점과 매칭되는 상기 2개의 인접점 간격만큼의 폭을 가지는 직사각형을 경계 추출 영역으로 지정하는 것을 특징으로 하는, 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법.
2. The method of claim 1, wherein step (6)
And a rectangle having a width corresponding to the two adjacent point intervals matching with the starting point is designated as a boundary extraction region by using the concave point and the super pixel information.
제1항에 있어서, 상기 단계 (7)은,
상기 단계 (6)에서 지정된 경계 추출 영역에서 슬릭(SLIC)을 이용하여 슈퍼픽셀을 구하는 것을 특징으로 하는, 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법.
The method of claim 1, wherein step (7)
Wherein a super pixel is obtained using a slick (SLIC) in a boundary extraction region designated in the step (6).
제1항에 있어서, 상기 단계 (1)은,
히스토그램 평활화 기법을 적용하여 깊이 값을 보정한 이진화된 영상을 획득하는 것을 특징으로 하는, 오목점과 슈퍼픽셀 정보를 이용한 깊이 기반 근접 돼지 구분 방법.
2. The method of claim 1, wherein the step (1)
And a binarized image obtained by correcting the depth value is obtained by applying a histogram smoothing technique. The depth-based proximity pig classification method using the concave point and the super pixel information.
KR1020170051904A 2017-04-21 2017-04-21 Method for depth based pig segmentation using concave-points and superpixel information KR101910843B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170051904A KR101910843B1 (en) 2017-04-21 2017-04-21 Method for depth based pig segmentation using concave-points and superpixel information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170051904A KR101910843B1 (en) 2017-04-21 2017-04-21 Method for depth based pig segmentation using concave-points and superpixel information

Publications (1)

Publication Number Publication Date
KR101910843B1 true KR101910843B1 (en) 2018-10-23

Family

ID=64101769

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170051904A KR101910843B1 (en) 2017-04-21 2017-04-21 Method for depth based pig segmentation using concave-points and superpixel information

Country Status (1)

Country Link
KR (1) KR101910843B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111179533A (en) * 2020-01-11 2020-05-19 刘惠敏 Target identification system based on shape analysis
CN113255495A (en) * 2021-05-17 2021-08-13 开放智能机器(上海)有限公司 Pig farm live pig counting method and system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111179533A (en) * 2020-01-11 2020-05-19 刘惠敏 Target identification system based on shape analysis
CN111179533B (en) * 2020-01-11 2021-10-29 合肥源康信息科技有限公司 Target identification system based on shape analysis
CN113255495A (en) * 2021-05-17 2021-08-13 开放智能机器(上海)有限公司 Pig farm live pig counting method and system

Similar Documents

Publication Publication Date Title
US10192107B2 (en) Object detection method and object detection apparatus
CN110705405B (en) Target labeling method and device
TWI435234B (en) Plant disease identification method, system and record media
CN111225611B (en) Systems and methods for facilitating analysis of wounds in a target object
EP3525134A1 (en) Device and method with image matching
WO2016199244A1 (en) Object recognition device and object recognition system
KR102074406B1 (en) Apparatus and Method for classifying Landmark of Image
JP6286474B2 (en) Image processing apparatus and area tracking program
CN109784130B (en) Pedestrian re-identification method, device and equipment thereof
JP2022542204A (en) Image coordinate system transformation method and its device, equipment and computer program
KR101167567B1 (en) Fish monitoring digital image processing apparatus and method
CN106991370B (en) Pedestrian retrieval method based on color and depth
CN109299658B (en) Face detection method, face image rendering device and storage medium
CN112419295A (en) Medical image processing method, apparatus, computer device and storage medium
US20190096066A1 (en) System and Method for Segmenting Out Multiple Body Parts
KR101910843B1 (en) Method for depth based pig segmentation using concave-points and superpixel information
CN114428875A (en) Pedestrian re-identification database building method and device, computer equipment and storage medium
CN104318216B (en) Across the identification matching process of blind area pedestrian target in video monitoring
de Carvalho et al. Anomaly detection with a moving camera using multiscale video analysis
Xiang et al. Measuring stem diameter of sorghum plants in the field using a high-throughput stereo vision system
Xiao et al. Video based 3D reconstruction using spatio-temporal attention analysis
CN111753775A (en) Fish growth assessment method, device, equipment and storage medium
CN114359332A (en) Target tracking method, device, equipment and medium based on depth image
US20220207320A1 (en) System and method for counting aquatic creatures
JP7253967B2 (en) Object matching device, object matching system, object matching method, and computer program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant