KR101864533B1 - 오목 구간과 오목점을 이용한 근접객체 구분 방법 및 장치 - Google Patents

오목 구간과 오목점을 이용한 근접객체 구분 방법 및 장치 Download PDF

Info

Publication number
KR101864533B1
KR101864533B1 KR1020170035353A KR20170035353A KR101864533B1 KR 101864533 B1 KR101864533 B1 KR 101864533B1 KR 1020170035353 A KR1020170035353 A KR 1020170035353A KR 20170035353 A KR20170035353 A KR 20170035353A KR 101864533 B1 KR101864533 B1 KR 101864533B1
Authority
KR
South Korea
Prior art keywords
concave
point
series data
time series
points
Prior art date
Application number
KR1020170035353A
Other languages
English (en)
Inventor
정용화
주미소
백한솔
정연우
박대희
김학재
Original Assignee
고려대학교 세종산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 세종산학협력단 filed Critical 고려대학교 세종산학협력단
Priority to KR1020170035353A priority Critical patent/KR101864533B1/ko
Application granted granted Critical
Publication of KR101864533B1 publication Critical patent/KR101864533B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06K9/20
    • G06K9/34
    • G06K9/46
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

오목 구간과 오목점을 이용한 근접객체 구분 방법 및 장치가 제시된다. 본 발명에서 제안하는 오목 구간과 오목점을 이용한 근접객체 구분 방법은 카메라를 통해 객체 집단을 촬영하여 영상을 획득하는 단계, 근접객체 발생 여부를 판단하여, 근접객체가 발생한 경우, 전배경 영상을 획득하고 잡음을 제거하는 단계, 전배경 영상에서 근접객체의 분리가 필요한 부분을 관심영역으로 설정하고 관심영역 영상을 획득하는 단계, 근접객체 오목점 검출 알고리즘을 이용하여 관심영역 영상에서 근접객체의 오목점을 검출하는 단계, 검출된 오목점의 개수를 판단하여, 검출된 오목점이 한 개인 경우, 해당 오목점의 인덱스와 전체 외곽선 인덱스를 이용하여 계산된 범위 내 점들 중 해당 오목점과 가장 가까운 점을 선택하고, 해당 오목점과 가장 가까운 점을 연결하여 경계선을 생성함으로써 근접객체를 분리하는 단계 및 검출된 오목점의 개수를 판단하여, 검출된 오목점이 두 개인 경우, 두 개의 오목점을 연결하여 경계선을 생성함으로써 근접객체를 분리하는 단계를 포함한다.

Description

오목 구간과 오목점을 이용한 근접객체 구분 방법 및 장치{Method and Apparatus for Segmentation of Touching Objects using Concave Sections and Concave Points}
본 발명은 오목 구간과 오목점을 이용한 근접 객체 구분 방법 및 장치에 관한 것이다.
오목점을 추출하기 위해 근접 객체를 포함하는 최소 다각형과 근접 객체의 외곽선을 이용하며, 최소 다각형의 추출을 위하여 컴퓨터 비전 기법 중 하나인 Convex Hull을 사용할 수 있다. 컴퓨터 비전 기법에서 Convex Hull이란, 밀집되어 있는 점군 가운데 최외곽에 위치한 점들을 연결하여 점군의 전체를 포함하는 최소 다각형을 생성하는 기법이다.
또한, 근접 객체의 외곽에 위치한 점들의 집합인 외곽선을 추출하고, 외곽선의 각 점들과 최소 다각형을 이루는 각 선분과의 유클리디언 거리(Euclidean Distance)를 계산하여 근접 객체를 구분하기 위해 이용한다.
최근 객체에 대한 탐지 및 추적에 대한 연구 활발하게 이루어지고 있다. 하지만, 종래기술에 따른 객체에 대한 탐지 및 추적 기술은 객체가 움직이는 도중 서로 근접하여 구분되지 않는 문제로 인한 어려움 발생할 수 있다.
본 발명이 이루고자 하는 기술적 과제는 돼지의 등이나 세포와 같이 객체의 원형에는 오목 구간이 없으나, 순간의 움직임으로 형태가 다소 휘어질 가능성이 있는 객체를 구분 대상으로 하여, 실제 근접 객체가 만들어내는 오목점과 객체 자체의 휘어짐 등으로 인한 오목 구간을 자동으로 구별해내고, 이를 통해 하나의 객체로 인식되는 두 개의 근접한 객체를 개별적으로 구분 가능하도록 분리하는 방법 및 장치를 제공하는데 있다.
일 측면에 있어서, 본 발명에서 제안하는 오목 구간과 오목점을 이용한 근접객체 구분 방법은 카메라를 통해 객체 집단을 촬영하여 영상을 획득하는 단계, 근접객체 발생 여부를 판단하여, 근접객체가 발생한 경우, 전배경 영상을 획득하고 잡음을 제거하는 단계, 전배경 영상에서 근접객체의 분리가 필요한 부분을 관심영역으로 설정하고 관심영역 영상을 획득하는 단계, 근접객체 오목점 검출 알고리즘을 이용하여 관심영역 영상에서 근접객체의 오목점을 검출하는 단계, 검출된 오목점의 개수를 판단하여, 검출된 오목점이 한 개인 경우, 해당 오목점의 인덱스와 전체 외곽선 인덱스를 이용하여 계산된 범위 내 점들 중 해당 오목점과 가장 가까운 점을 선택하고, 해당 오목점과 가장 가까운 점을 연결하여 경계선을 생성함으로써 근접객체를 분리하는 단계 및 검출된 오목점의 개수를 판단하여, 검출된 오목점이 두 개인 경우, 두 개의 오목점을 연결하여 경계선을 생성함으로써 근접객체를 분리하는 단계를 포함한다.
근접객체 발생 여부를 판단하여, 근접객체가 발생한 경우 전배경 분리 및 잡음을 제거하는 단계는 전배경 분리 및 잡음을 제거하기 위해 HSV(Hue Saturation Value)의 값을 설정한 후 이진화하여 객체의 전배경 영상을 획득한다.
근접객체 오목점 검출 알고리즘을 이용하여 관심영역 영상에서 근접객체의 오목점을 검출하는 단계는 근접객체의 외곽선 및 최소 볼록 집합(Convex Hull)을 이용하여 최소 다각형을 추출하는 단계, 추출된 최소 다각형의 선분을 이용하여 시계열 데이터를 생성하고, 생성된 시계열 데이터를 이용하여 오목 구간을 판별하는 단계, 판별된 오목 구간의 길이, 최소 다각형의 선분 길이 및 유클리디언 거리를 이용하여 오목점 후보를 검출하는 단계 및 오목점 후보의 개수에 따라 오목점을 최종 검출 하는 단계를 포함한다.
추출된 최소 다각형의 선분을 이용하여 시계열 데이터를 생성하고, 생성된 시계열 데이터를 이용하여 오목 구간을 판별하는 단계는 추출된 최소 다각형의 각 선분을 반시계 방향으로 연결 리스트에 저장하고, 가장 마지막에 저장된 점을 시계열 데이터 기록시 시작점으로 설정하는 단계, 설정된 시작점으로부터 외곽선의 각 점들을 시계 방향으로 읽어 들이며, 외곽선의 각 점으로부터 최소 다각형의 각 선분에 수직으로 맞닿는 점까지의 유클리디언 거리(Euclidean Distance)를 계산하여 순서대로 기록한 시계열 데이터 A를 생성하는 단계, 설정된 시작점으로부터 외곽선의 각 점들을 시계 방향으로 읽어들이며, 외곽선의 각 점으로부터 최소 다각형의 각 선분의 양 끝 점까지의 유클리디언 거리(Euclidean Distance)의 합을 계산하고, 최소 다각형의 다른 선분의 길이를 고려하여 계산된 값에서 선분의 길이를 뺀 값을 순서대로 기록한 시계열 데이터 B 생성하는 단계, 시계열 데이터 A 및 시계열 데이터 B를 동시에 활용하기 위해 정규화하는 단계, 시계열 데이터 A로부터 오목 범위 탐색의 기준값을 설정하고, 최소 다각형의 각 선분에 대응하는 구간별 최댓값 중 기준값보다 큰 점을 추출하는 단계, 시계열 데이터 B로부터 상기 추출된 점들이 휘어짐에 의한 오목 구간인지 판별하기 위해 오목 구간의 판별 범위를 상기 추출된 점의 시계열 데이터 값±임계값으로 설정하는 단계 및 상기 추출된 점에 대응하는 최소 다각형의 선분 구역에 대한 모든 시계열 데이터 값을 읽어들여 상기 추출된 점들이 휘어짐에 의한 오목 구간인지 판별하기 위한 오목 구간의 판별 범위의 기준 이내일 경우 오목 구간으로 판별하는 단계를 포함한다.
오목점 후보의 개수에 따라 오목점을 최종 검출 하는 단계는 오목점 후보의 개수가 두 개 이하일 경우, 해당 오목점을 최종 결정하고, 오목점 후보의 개수가 세 개 이상일 경우, 해당 오목점들 중 시계열 데이터에서의 값을 오름차순으로 정렬한 후 상위 두 개의 오목점을 최종 결정한다.
또 다른 일 측면에 있어서, 본 발명에서 제안하는 오목 구간과 오목점을 이용한 근접객체 구분 장치는 카메라를 통해 객체 집단을 촬영하여 획득된 영상으로부터 근접객체 발생 여부를 판단하여, 근접객체가 발생한 경우, 전배경 영상을 획득하고 잡음을 제거하는 전배경 영상 획득부, 전배경 영상에서 근접객체의 분리가 필요한 부분을 관심영역으로 설정하고 관심영역 영상을 획득하는 관심영역 설정부, 근접객체 오목점 검출 알고리즘을 이용하여 관심영역 영상에서 근접객체의 오목점을 검출하는 오목점 검출부 및 검출된 오목점의 개수를 판단하여, 검출된 오목점이 한 개인 경우, 해당 오목점의 인덱스와 전체 외곽선 인덱스를 이용하여 계산된 범위 내 점들 중 해당 오목점과 가장 가까운 점을 선택하고, 해당 오목점과 가장 가까운 점을 연결하여 경계선을 생성함으로써 근접객체를 분리하는 근접객체 분리부를 포함한다.
근접객체 분리부는 검출된 오목점의 개수를 판단하여, 검출된 오목점이 두 개인 경우, 두 개의 오목점을 연결하여 경계선을 생성함으로써 근접객체를 분리한다.
전배경 영상 획득부는 전배경 분리 및 잡음을 제거하기 위해 HSV(Hue Saturation Value)의 값을 설정한 후 이진화하여 객체의 전배경 영상을 획득한다.
오목점 검출부는 근접객체의 외곽선 및 최소 볼록 집합(Convex Hull)을 이용하여 최소 다각형을 추출하는 최소 다각형 추출부, 추출된 최소 다각형의 선분을 이용하여 시계열 데이터를 생성하는 시계열 데이터 생성부, 생성된 시계열 데이터를 이용하여 오목 구간을 판별하는 오목 구간 판별부, 판별된 오목 구간의 길이, 최소 다각형의 선분 길이 및 유클리디언 거리를 이용하여 오목점 후보를 검출하는 오목점 후보 검출부 및 오목점 후보의 개수에 따라 오목점을 최종 검출 하는 오목점 최종 검출부를 포함한다.
시계열 데이터 생성부는 추출된 최소 다각형의 각 선분을 반시계 방향으로 연결 리스트에 저장하고, 가장 마지막에 저장된 점을 시계열 데이터 기록시 시작점으로 설정한다.
오목 구간 판별부는 설정된 시작점으로부터 외곽선의 각 점들을 시계 방향으로 읽어 들이며, 외곽선의 각 점으로부터 최소 다각형의 각 선분에 수직으로 맞닿는 점까지의 유클리디언 거리(Euclidean Distance)를 계산하여 순서대로 기록한 시계열 데이터 A를 생성하고, 설정된 시작점으로부터 외곽선의 각 점들을 시계 방향으로 읽어들이며, 외곽선의 각 점으로부터 최소 다각형의 각 선분의 양 끝 점까지의 유클리디언 거리(Euclidean Distance)의 합을 계산하고, 최소 다각형의 다른 선분의 길이를 고려하여 계산된 값에서 선분의 길이를 뺀 값을 순서대로 기록한 시계열 데이터 B 생성하고, 시계열 데이터 A 및 시계열 데이터 B를 동시에 활용하기 위해 정규화한다.
오목 구간 판별부는 시계열 데이터 A로부터 오목 범위 탐색의 기준값을 설정하고, 최소 다각형의 각 선분에 대응하는 구간별 최댓값 중 기준값보다 큰 점을 추출하고, 시계열 데이터 B로부터 상기 추출된 점들이 휘어짐에 의한 오목 구간인지 판별하기 위해 오목 구간의 판별 범위를 상기 추출된 점의 시계열 데이터 값±임계값으로 설정하고, 상기 추출된 점에 대응하는 최소 다각형의 선분 구역에 대한 모든 시계열 데이터 값을 읽어들여 상기 추출된 점들이 휘어짐에 의한 오목 구간인지 판별하기 위한 오목 구간의 판별 범위의 기준 이내일 경우 오목 구간으로 판별한다.
오목점 최종 검출부는 오목점 후보의 개수가 두 개 이하일 경우, 해당 오목점을 최종 결정하고, 오목점 후보의 개수가 세 개 이상일 경우, 해당 오목점들 중 시계열 데이터에서의 값을 오름차순으로 정렬한 후 상위 두 개의 오목점을 최종 결정한다.
본 발명의 실시예들에 따르면 근접한 객체들이 만들어내는 오목점만을 자동으로 인식함으로써 객체간 개별적인 분리가 가능하고, 움직이는 객체를 인식 또는 추적하는 영상정보처리 시스템에 적용이 가능하다.
도 1은 본 발명의 일 실시예에 따른 오목 구간과 오목점을 이용한 근접객체 구분 방법을 설명하기 위한 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 실내에 설치된 카메라를 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 근접 객체의 개별 구분이 되지 않는 프레임의 관심영역 영상을 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 근접객체 오목점 검출 알고리즘을 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따른 오목 구간과 오목점을 이용한 근접객체 구분 장치를 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 근접 객체의 외곽선을 나타내는 도면이다.
도 7은 본 발명의 일 실시예에 따른 근접 객체의 최소 다각형을 나타내는 도면이다.
도 8은 본 발명의 일 실시예에 따른 시계열 데이터 A를 생성하기 위한 계산 과정을 나타내는 도면이다.
도 9는 본 발명의 일 실시예에 따른 시계열 데이터 B를 생성하기 위한 계산 과정을 나타내는 도면이다.
도 10은 본 발명의 일 실시예에 따른 최소 다각형의 각 선분을 나타내는 도면이다.
도 11은 본 발명의 일 실시예에 따른 두 개의 오목점이 검출된 경우, 근접 객체의 오목점을 이용한 경계선 분리를 설명하기 위한 도면이다.
도 12는 본 발명의 일 실시예에 따른 한 개의 오목점이 검출된 경우, 근접 객체의 오목점을 이용한 경계선 분리를 설명하기 위한 도면이다.
본 발명에 따른 오목 구간과 오목점을 이용한 근접 객체 구분 방법은 영상처리 방법 중 하나인 최소 볼록 집합(Convex Hull)을 이용하여 근접한 두 객체를 포함하는 최소 다각형을 추출한 뒤, 근접 객체의 최소 다각형과 외곽선을 이용하여 근접 객체에 대한 시계열 데이터를 생성한다. 생성된 시계열 데이터로부터 객체의 모양이 휘어짐으로 인한 오목 구간인지, 또는 두 객체가 만들어내는 오목점인지 판단하고 오목점을 이용한 경계 설정을 통해 두 근접 객체를 구분하는 영상처리기술에 관한 것이다.
더욱 상세하게는, 본 발명에서 오목점을 추출하기 위해 근접 객체를 포함하는 최소 다각형과 근접 객체의 외곽선을 이용하고, 최소 다각형의 추출을 위해 컴퓨터 비전 기법 중 하나인 Convex Hull을 사용할 수 있다. 컴퓨터 비전 기법에서 Convex Hull이란, 밀집되어 있는 점군 가운데 최외곽에 위치한 점들을 연결하여 점군의 전체를 포함하는 최소 다각형을 생성하는 기법이다. 또한 근접 객체의 외곽에 위치한 점들의 집합인 외곽선을 추출하고, 외곽선의 각 점들과 최소 다각형을 이루는 각 선분과의 유클리디언 거리(Euclidean Distance)를 계산한다. 이 때, 외곽선 각 점들을 읽어 들이는 순서를 x축, 계산된 거리를 y축으로 갖는 데이터를 거리의 계산과 동시에 생성함으로써 2차원의 근접 객체 영상 데이터를 1차원의 시계열 데이터로 변환한다. 생성된 시계열 데이터로부터 오목 구간 판단을 위한 임계값을 적용하여 근접 객체가 만들어내는 오목점만을 두 개 또는 하나 추출하고, 추출된 오목점을 이용한 경계선을 그려 근접 객체를 구분하는 방법을 제안한다. 이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 오목 구간과 오목점을 이용한 근접객체 구분 방법을 설명하기 위한 흐름도이다.
오목 구간과 오목점을 이용한 근접객체 구분 방법은 카메라를 통해 객체 집단을 촬영하여 영상을 획득하는 단계(110), 근접객체 발생 여부를 판단(121)하여, 근접객체가 발생한 경우, 전배경 영상을 획득하고 잡음을 제거하는 단계(122), 전배경 영상에서 근접객체의 분리가 필요한 부분을 관심영역으로 설정하고 관심영역 영상을 획득하는 단계(130), 근접객체 오목점 검출 알고리즘을 이용하여 관심영역 영상에서 근접객체의 오목점을 검출하는 단계(140), 검출된 오목점의 개수를 판단(150)하여, 검출된 오목점이 한 개인 경우, 해당 오목점의 인덱스와 전체 외곽선 인덱스를 이용하여 범위를 계산(160)하고, 계산된 범위 내 점들 중 해당 오목점과 가장 가까운 점을 선택(170)하고, 해당 오목점과 가장 가까운 점을 연결하여 경계선을 생성(180)함으로써 근접객체를 분리하는 단계(190)를 포함한다.
도 2는 본 발명의 일 실시예에 따른 실내에 설치된 카메라를 나타내는 도면이다.
단계(110)에서, 카메라를 통해 객체 집단을 촬영하여 영상을 획득한다. 도 2와 같이, 일 실시예에 따른 실내 천장에 탑-뷰(Top-view) 방식(220)으로 설치된 카메라(210)를 통해 객체 집단을 촬영하여 영상을 획득할 수 있다.
이후, 촬영된 영상에서 근접객체 발생 여부를 판단(121)하여, 근접객체가 발생한 경우, 전배경 영상을 획득하고 잡음을 제거한다(122). 다시 말해, 카메라에서 획득한 영상에서 두 객체가 근접하여 분리가 필요할 경우, 전배경 분리 및 잡음을 제거하기 위해 HSV(Hue Saturation Value)의 값을 설정한 후 이진화하여 객체의 전배경 영상을 획득한다.
도 3은 본 발명의 일 실시예에 따른 근접 객체의 개별 구분이 되지 않는 프레임의 관심영역 영상을 나타내는 도면이다.
단계(130)에서, 전배경 영상에서 근접객체의 분리가 필요한 부분을 도 3과 같이 관심영역(300)으로 설정하고 관심영역 영상을 획득한다. 관심영역 영상에서 근접 객체의 경우 각각의 두 객체(310, 320)로 판별되지 않고, 덩어리의 형태를 갖는 하나의 객체(300)로 판별될 수 있다.
단계(140)에서, 근접객체 오목점 검출 알고리즘을 이용하여 관심영역 영상에서 근접객체의 오목점을 검출한다.
단계(140)는 근접객체의 외곽선 및 최소 볼록 집합(Convex Hull)을 이용하여 최소 다각형을 추출하는 단계, 추출된 최소 다각형의 선분을 이용하여 시계열 데이터를 생성하고, 생성된 시계열 데이터를 이용하여 오목 구간을 판별하는 단계, 판별된 오목 구간의 길이, 최소 다각형의 선분 길이 및 유클리디언 거리를 이용하여 오목점 후보를 검출하는 단계 및 오목점 후보의 개수에 따라 오목점을 최종 검출 하는 단계를 포함할 수 있다. 근접객체 오목점 검출 알고리즘을 이용하여 관심영역 영상에서 근접객체의 오목점을 검출하는 단계(140)에 대하여 도 4를 참조하여 더욱 상세히 설명한다.
도 4는 본 발명의 일 실시예에 따른 근접객체 오목점 검출 알고리즘을 나타내는 도면이다.
단계(140)는 근접객체의 외곽선 및 최소 볼록 집합(Convex Hull)을 이용하여 최소 다각형을 추출하는 단계(410), 추출된 최소 다각형의 선분을 이용하여 시계열 데이터를 생성하고, 생성된 시계열 데이터를 이용하여 오목 구간을 판별하는 단계(421 내지 428), 판별된 오목 구간의 길이, 최소 다각형의 선분 길이 및 유클리디언 거리를 이용하여 오목점 후보를 검출하는 단계(430) 및 오목점 후보의 개수에 따라 오목점을 최종 검출 하는 단계(440 내지 470)를 포함할 수 있다.
단계(410)에서, 근접객체의 외곽선 및 최소 볼록 집합(Convex Hull)을 이용하여 최소 다각형을 추출한다.
이후, 추출된 최소 다각형의 선분을 이용하여 시계열 데이터를 생성하고, 생성된 시계열 데이터를 이용하여 오목 구간을 판별한다(421 내지 428).
추출된 최소 다각형의 선분을 이용하여 시계열 데이터를 생성하고, 생성된 시계열 데이터를 이용하여 오목 구간을 판별하는 단계에서는 먼저, 추출된 최소 다각형의 각 선분을 반시계 방향으로 연결 리스트에 저장하고, 가장 마지막에 저장된 점을 시계열 데이터 기록시 시작점으로 설정한다(421).
설정된 시작점으로부터 외곽선의 각 점들을 시계 방향으로 읽어 들이며, 외곽선의 각 점으로부터 최소 다각형의 각 선분에 수직으로 맞닿는 점까지의 유클리디언 거리(Euclidean Distance)를 계산하여 순서대로 기록한 시계열 데이터 A를 생성한다(422).
또한, 설정된 시작점으로부터 외곽선의 각 점들을 시계 방향으로 읽어들이며, 외곽선의 각 점으로부터 최소 다각형의 각 선분의 양 끝 점까지의 유클리디언 거리(Euclidean Distance)의 합을 계산하고, 최소 다각형의 다른 선분의 길이를 고려하여 계산된 값에서 선분의 길이를 뺀 값을 순서대로 기록한 시계열 데이터 B 생성한다(423).
그리고, 생성된 시계열 데이터 A 및 시계열 데이터 B를 동시에 활용하기 위해 0부터 1사이의 값으로 정규화한다(424).
단계(425)에서, 시계열 데이터 A로부터 오목 범위 탐색의 기준값을 설정한다. 그리고, 단계(426)에서 최소 다각형의 각 선분에 대응하는 구간별 최댓값 중 기준값보다 큰 점을 추출한다.
단계(427)에서, 시계열 데이터 B로부터 상기 추출된 점들이 휘어짐에 의한 오목 구간인지 판별하기 위해 오목 구간의 판별 범위를 상기 추출된 점의 시계열 데이터 값±임계값으로 설정한다.
그리고, 단계(428)에서 상기 추출된 점에 대응하는 최소 다각형의 선분 구역에 대한 모든 시계열 데이터 값을 읽어들여 상기 추출된 점들이 휘어짐에 의한 오목 구간인지 판별하기 위한 오목 구간의 판별 범위의 기준 이내일 경우 오목 구간으로 판별한다.
단계(430)에서, 판별된 오목 구간의 길이, 최소 다각형의 선분 길이 및 유클리디언 거리를 이용하여 오목점 후보를 검출한다. 오목점 후보를 검출하는 식은 수학식(1)과 같다.
Figure 112017027937415-pat00001
수학식(1)
이후, 수학식(1)을 통해 검출된 오목점 후보의 개수에 따라 오목점을 최종 검출 한다(440 내지 470).
단계(440)에서, 수학식(1)의 계산 결과와 임계값을 비교한다. 계산 결과가 임계값보다 큰 경우, 하나의 객체가 휘어진 경우로 간주한다(441). 다시 말해, 근접 객체로 인한 오목점의 후보로 판단하지 않는다.
반면에 계산 결과가 임계값보다 작은 경우, 근접 객체로 인한 오목점의 후보로 판단한다(450).
단계(460)에서, 검출된 오목점 후보가 두 개 이하인지 판별한다. 검출된 오목점 후보가 세 개 이상인 경우, 지역적 요철이 두드러지게 나타나는 시계열 데이터 A에서의 값을 오름차순 정렬한 후(461), 상위 두 개의 점을 추출(462)하여 해당 두 개의 오목점을 최종 검출한다(470).
반면에, 검출된 오목점 후보가 두 개 이하인 경우 해당 오목점, 다시 말해 하나 또는 두 개의 오목점을 최종 검출한다(470).
다시 도 1을 참조하면, 검출된 오목점의 개수를 판단(150)하여, 검출된 오목점이 한 개인 경우, 해당 오목점의 인덱스와 전체 외곽선 인덱스를 이용하여 범위를 계산(160)하고, 계산된 범위 내 점들 중 해당 오목점과 가장 가까운 점을 선택(170)한다. 그리고, 해당 오목점과 가장 가까운 점을 연결하여 경계선을 생성(180)함으로써 근접객체를 분리한다(190). 다시 말해, 오목점의 개수가 한 개이면 시작점으로부터 해당 점의 인덱스±전체 외곽선 인덱스의 90%를 계산하여 계산된 범위 내 점들 중 오목점과 가장 가까운 점을 선택하여 경계선을 연결하여 근접 객체를 분리한다.
반면에, 검출된 오목점의 개수를 판단(150)하여, 검출된 오목점이 두 개인 경우, 두 개의 오목점을 연결하여 경계선을 생성(180)함으로써 근접객체를 분리한다(190).
도 5는 본 발명의 일 실시예에 따른 오목 구간과 오목점을 이용한 근접객체 구분 장치를 나타내는 도면이다.
오목 구간과 오목점을 이용한 근접객체 구분 장치(500)는 전배경 영상 획득부(510), 관심영역 설정부(520), 오목점 검출부(530), 근접객체 분리부(540)를 포함한다.
전배경 영상 획득부(510)는 카메라를 통해 객체 집단을 촬영하여 획득된 영상으로부터 근접객체 발생 여부를 판단하여, 근접객체가 발생한 경우, 전배경 영상을 획득하고 잡음을 제거한다. 일 실시예에 따른 실내 천장에 탑-뷰(Top-view) 방식으로 설치된 카메라, 다시 말해 전배경 영상 획득부(510)를 통해 객체 집단을 촬영하여 영상을 획득할 수 있다. 카메라에서 획득한 영상에서 두 객체가 근접하여 분리가 필요할 경우, 전배경 분리 및 잡음을 제거하기 위해 HSV(Hue Saturation Value)의 값을 설정한 후 이진화하여 객체의 전배경 영상을 획득한다.
관심영역 설정부(520)는 전배경 영상에서 근접객체의 분리가 필요한 부분을 관심영역으로 설정하고 관심영역 영상을 획득한다. 관심영역 영상에서 근접 객체의 경우 각각의 두 객체로 판별되지 않고, 덩어리의 형태를 갖는 하나의 객체로 판별될 수 있다.
오목점 검출부(530)는 근접객체 오목점 검출 알고리즘을 이용하여 관심영역 영상에서 근접객체의 오목점을 검출한다. 오목점 검출부(530)는 근접객체의 외곽선 및 최소 볼록 집합(Convex Hull)을 이용하여 최소 다각형을 추출한다. 이후, 추출된 최소 다각형의 선분을 이용하여 시계열 데이터를 생성하고, 생성된 시계열 데이터를 이용하여 오목 구간을 판별한다
오목점 검출부(530)는 근접객체의 외곽선 및 최소 볼록 집합(Convex Hull)을 이용하여 최소 다각형을 추출하는 최소 다각형 추출부(531), 추출된 최소 다각형의 선분을 이용하여 시계열 데이터를 생성하는 시계열 데이터 생성부(532), 생성된 시계열 데이터를 이용하여 오목 구간을 판별하는 오목 구간 판별부(533), 판별된 오목 구간의 길이, 최소 다각형의 선분 길이 및 유클리디언 거리를 이용하여 오목점 후보를 검출하는 오목점 후보 검출부(534) 및 오목점 후보의 개수에 따라 오목점을 최종 검출 하는 오목점 최종 검출부(535)를 포함한다.
시계열 데이터 생성부(532)는 추출된 최소 다각형의 각 선분을 반시계 방향으로 연결 리스트에 저장하고, 가장 마지막에 저장된 점을 시계열 데이터 기록시 시작점으로 설정한다.
오목 구간 판별부(533)는 설정된 시작점으로부터 외곽선의 각 점들을 시계 방향으로 읽어 들이며, 외곽선의 각 점으로부터 최소 다각형의 각 선분에 수직으로 맞닿는 점까지의 유클리디언 거리(Euclidean Distance)를 계산하여 순서대로 기록한 시계열 데이터 A를 생성한다.
또한, 설정된 시작점으로부터 외곽선의 각 점들을 시계 방향으로 읽어들이며, 외곽선의 각 점으로부터 최소 다각형의 각 선분의 양 끝 점까지의 유클리디언 거리(Euclidean Distance)의 합을 계산하고, 최소 다각형의 다른 선분의 길이를 고려하여 계산된 값에서 선분의 길이를 뺀 값을 순서대로 기록한 시계열 데이터 B 생성한다.
그리고, 생성된 시계열 데이터 A 및 시계열 데이터 B를 동시에 활용하기 위해 0부터 1사이의 값으로 정규화한다.
시계열 데이터 A로부터 오목 범위 탐색의 기준값을 설정한다. 그리고, 단계에서 최소 다각형의 각 선분에 대응하는 구간별 최댓값 중 기준값보다 큰 점을 추출한다.
시계열 데이터 B로부터 상기 추출된 점들이 휘어짐에 의한 오목 구간인지 판별하기 위해 오목 구간의 판별 범위를 상기 추출된 점의 시계열 데이터 값±임계값으로 설정한다.
그리고, 상기 추출된 점에 대응하는 최소 다각형의 선분 구역에 대한 모든 시계열 데이터 값을 읽어들여 상기 추출된 점들이 휘어짐에 의한 오목 구간인지 판별하기 위한 오목 구간의 판별 범위의 기준 이내일 경우 오목 구간으로 판별한다.
오목점 후보 검출부(534)는 판별된 오목 구간의 길이, 최소 다각형의 선분 길이 및 유클리디언 거리를 이용하여 오목점 후보를 검출한다. 오목점 후보를 검출하는 식은 위에서 설명된 수학식(1)과 같다.
이후, 수학식(1)을 통해 검출된 오목점 후보의 개수에 따라 오목점을 최종 검출 한다. 수학식(1)의 계산 결과와 임계값을 비교하여 계산 결과가 임계값보다 큰 경우, 하나의 객체가 휘어진 경우로 간주한다. 다시 말해, 근접 객체로 인한 오목점의 후보로 판단하지 않는다.
반면에 계산 결과가 임계값보다 작은 경우, 근접 객체로 인한 오목점의 후보로 판단한다
오목점 최종 검출부(535)는 검출된 오목점 후보가 두 개 이하인지 판별한다. 검출된 오목점 후보가 세 개 이상인 경우, 지역적 요철이 두드러지게 나타나는 시계열 데이터 A에서의 값을 오름차순 정렬한 후, 상위 두 개의 점을 추출하여 해당 두 개의 오목점을 최종 검출한다.
반면에, 검출된 오목점 후보가 두 개 이하인 경우 해당 오목점, 다시 말해 하나 또는 두 개의 오목점을 최종 검출한다.
근접객체 분리부(540)는 검출된 오목점의 개수를 판단하여, 검출된 오목점이 한 개인 경우, 해당 오목점의 인덱스와 전체 외곽선 인덱스를 이용하여 계산된 범위 내 점들 중 해당 오목점과 가장 가까운 점을 선택하고, 해당 오목점과 가장 가까운 점을 연결하여 경계선을 생성함으로써 근접객체를 분리한다. 다시 말해, 오목점의 개수가 한 개이면 시작점으로부터 해당 점의 인덱스±전체 외곽선 인덱스의 90%를 계산하여 계산된 범위 내 점들 중 오목점과 가장 가까운 점을 선택하여 경계선을 연결하여 근접 객체를 분리한다.
반면에, 검출된 오목점의 개수를 판단하여, 검출된 오목점이 두 개인 경우, 두 개의 오목점을 연결하여 경계선을 생성함으로써 근접객체를 분리한다.
도 6은 본 발명의 일 실시예에 따른 근접 객체의 외곽선을 나타내는 도면이다.
근접객체의 외곽선을 추출하기 위해, 근접객체(610, 620)의 관심영역(600) 영상으로부터 근접객체(610, 620)를 이루는 점들 중 배경과 맞닿은 점들, 즉 외곽에 위치한 점들을 일컫는 외곽선(600)을 추출한다.
도 7은 본 발명의 일 실시예에 따른 근접 객체의 최소 다각형을 나타내는 도면이다.
근접객체(710, 720)의 관심영역(730) 영상에 볼록 집합(Convex Hull) 알고리즘을 사용하여 근접 객체의 외곽선 중 최외곽에 위치한 점들을 연결한 도형, 즉 근접 객체를 포함하는 최소 다각형(700)을 추출한다.
도 8은 본 발명의 일 실시예에 따른 시계열 데이터 A를 생성하기 위한 계산 과정을 나타내는 도면이다.
근접 객체(810, 820)를 포함하는 최소 다각형의 각 선분을 반시계 방향으로 연결 리스트에 저장하고, 가장 마지막에 저장된 점을 시계열 데이터 기록시 시작점(830)으로 설정한다. 설정한 시작점(830)으로부터 외곽선의 각 점들을 시계 방향(840)으로 읽어 들이며, 외곽선의 각 점으로부터 최소 다각형을 이루는 각 선분에 수직으로 맞닿는 점까지의 유클리디언 거리(Euclidean Distance)(850)를 계산하여 순서대로 기록한 시계열 데이터 A 생성한다. 이러한 시계열 데이터 A는 근접 객체의 지역적 요철 정보가 잘 드러나는 특징을 갖는다.
도 9는 본 발명의 일 실시예에 따른 시계열 데이터 B를 생성하기 위한 계산 과정을 나타내는 도면이다.
근접 객체(910, 920)를 포함하는 최소 다각형에 있어서, 설정한 시작점(930)으로부터 외곽선의 각 점들을 시계 방향(940)으로 읽어 들이며, 외곽선의 각 점으로부터 최소 다각형을 이루는 각 선분의 양 끝 점까지의 유클리디언 거리(Euclidean Distance)(950)의 합을 계산하고, 제각기 다른 선분의 길이를 고려하여 계산된 값에서 선분의 길이를 뺀 값을 순서대로 기록한 시계열 데이터 B 생성한다. 시계열 데이터 B는 근접 객체의 전역적 요철 정보가 잘 드러나는 특징을 갖는다.
도 10은 본 발명의 일 실시예에 따른 최소 다각형의 각 선분을 나타내는 도면이다.
시계열 데이터 B를 이용하여 근접 객체(1010, 1020)를 포함하는, 추출된 최소 다각형의 각 선분을 도 10에 나타내었다.
그리고, 시계열 데이터 A와 시계열 데이터 B를 동시에 활용 가능하도록 하기 위하여 0부터 1사이의 값으로 정규화한다.
시계열 데이터 A로부터 오목 범위 탐색의 기준값을 설정하고, 최소 다각형의 각 선분에 대응하는 구간별 최대값 중 기준값보다 큰 점을 추출한다. 이때, 객체의 외곽선 형태에 작은 요철이 많은 경우, 본 단계를 통해 필터링이 가능하다.
시계열 데이터 B로부터 상기 추출된 점들이 휘어짐에 의한 오목 구간인지 판별하기 위하여 오목 구간의 판별 범위를 상기 추출된 점의 시계열 데이터 값±임계값으로 설정한다.
추출된 점에 대응하는 최소 다각형 선분 구역에 대한 모든 시계열 데이터 값을 읽어들여 시계열 데이터 B를 이용한 판별 범위 기준 이내이면 오목 구간으로 판별한다.
판별된 오목 구간의 최소 다각형 선분 대비 길이 비율을 수학식(1)을 통해 계산하고, 계산 결과가 임계값보다 작은 경우 오목점 후보로 추출한다.
수학식(1)의 계산 결과가 임계값보다 큰 경우는, 하나의 객체가 휘어진 경우로 간주한다. 다시 말해, 근접 객체로 인한 오목점의 후보로 판단하지 않는다. 반면에, 계산 결과가 임계값보다 작은 경우는 근접 객체로 인한 오목점의 후보로 판단한다.
추출된 오목점 후보가 세 개 이상인 경우, 지역적 요철이 두드러지게 나타나는 시계열 데이터 A에서의 값을 오름차순 정렬한 후 상위 두 개의 점을 추출하여 오목점을 최종 결정한다.
도 11은 본 발명의 일 실시예에 따른 두 개의 오목점이 검출된 경우, 근접 객체의 오목점을 이용한 경계선 분리를 설명하기 위한 도면이다.
근접 객체(1110, 1120)를 포함하는 최소 다각형에 있어서, 최종 검출된 오목점(1130)의 개수가 두 개(1131, 1132)이면 두 점을 양 끝 점으로 하는 경계선(1140)을 연결함으로써 근접객체를 분리한다
도 12는 본 발명의 일 실시예에 따른 한 개의 오목점이 검출된 경우, 근접 객체의 오목점을 이용한 경계선 분리를 설명하기 위한 도면이다.
근접 객체(1210, 1220)를 포함하는 최소 다각형에 있어서, 최종 검출된 오목점(1230)이 한 개인 경우, 해당 오목점의 인덱스와 전체 외곽선 인덱스를 이용하여 범위(1240)를 계산하고, 계산된 범위(1240) 내 점들 중 해당 오목점과 가장 가까운 점을 선택한다. 그리고, 해당 오목점과 가장 가까운 점을 연결하여 경계선(1250)을 생성함으로써 근접객체를 분리한다. 다시 말해, 오목점의 개수가 한 개이면 시작점으로부터 해당 점의 인덱스±전체 외곽선 인덱스의 90%를 계산하여 계산된 범위(1240) 내 점들 중 오목점(1230)과 가장 가까운 점을 선택하여 경계선(1250)을 연결하여 근접 객체를 분리한다.
국내 돈사에 본 발명에서 제안하는 오목 구간과 오목점을 이용한 근접객체 구분 방법이 활용된 감시 카메라 서비스를 적용한다고 가정하였을 때, 적용 가능한 국내 돼지 사육 두수는 1,036만 7천 마리(통계청 가축동향조사, 2016년 12월)이고 돼지 사육 가구 수는 4,574가구이다. 즉, 본 발명이 적용 가능한 시장은 국내 모든 돈사 농가인 4,574가구이다.
또한, 국내 돈사 외에도 본 발명의 객체 조건에 부합하는 대상에 대하여 제안하는 오목 구간과 오목점을 이용한 근접객체 구분 방법이 활용된 감시 카메라 서비스를 적용할 수 있다.
국내 돈사에 본 발명에서 제안하는 오목 구간과 오목점을 이용한 근접객체 구분 방법이 활용된 감시 카메라 서비스를 적용한다고 가정하였을 때, 국내 모든 돈사 농가(4,574가구)에서 본 발명을 활용 할 수 있다.
또한, 국내 돈사 외에도 본 발명의 객체 조건에 부합하는 대상에 대하여 제안하는 오목 구간과 오목점을 이용한 근접객체 구분 방법이 활용된 감시 카메라 서비스를 적용할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다.  또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다.  이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다.  예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다.  또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.  소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다.  소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.  상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.  상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.  컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.  프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다.  예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (15)

  1. 카메라를 통해 객체 집단을 촬영하여 영상을 획득하는 단계;
    근접객체 발생 여부를 판단하여, 근접객체가 발생한 경우, 전배경 영상을 획득하고 잡음을 제거하는 단계;
    전배경 영상에서 근접객체의 분리가 필요한 부분을 관심영역으로 설정하고 관심영역 영상을 획득하는 단계;
    근접객체 오목점 검출 알고리즘을 이용하여 관심영역 영상에서 근접객체의 오목점을 검출하는 단계; 및
    검출된 오목점의 개수를 판단하여, 검출된 오목점이 한 개인 경우, 해당 오목점의 인덱스와 전체 외곽선 인덱스를 이용하여 계산된 범위 내 점들 중 해당 오목점과 가장 가까운 점을 선택하고, 해당 오목점과 가장 가까운 점을 연결하여 경계선을 생성함으로써 근접객체를 분리하는 단계
    를 포함하고,
    상기 근접객체 오목점 검출 알고리즘을 이용하여 관심영역 영상에서 근접객체의 오목점을 검출하는 단계는,
    근접객체의 외곽선 및 최소 볼록 집합(Convex Hull)을 이용하여 최소 다각형을 추출하는 단계;
    추출된 최소 다각형의 선분을 이용하여 시계열 데이터를 생성하고, 생성된 시계열 데이터를 이용하여 오목 구간을 판별하는 단계;
    판별된 오목 구간의 길이, 최소 다각형의 선분 길이 및 유클리디언 거리를 이용하여 오목점 후보를 검출하는 단계; 및
    오목점 후보의 개수에 따라 오목점을 최종 검출 하는 단계
    를 포함하는 근접객체 구분 방법.
  2. 제1항에 있어서,
    검출된 오목점의 개수를 판단하여, 검출된 오목점이 두 개인 경우, 두 개의 오목점을 연결하여 경계선을 생성함으로써 근접객체를 분리하는 단계
    를 더 포함하는 근접객체 구분 방법.
  3. 제1항에 있어서,
    근접객체 발생 여부를 판단하여, 근접객체가 발생한 경우 전배경 분리 및 잡음을 제거하는 단계는,
    전배경 분리 및 잡음을 제거하기 위해 HSV(Hue Saturation Value)의 값을 설정한 후 이진화하여 객체의 전배경 영상을 획득하는
    근접객체 구분 방법.
  4. 삭제
  5. 제1항에 있어서,
    추출된 최소 다각형의 선분을 이용하여 시계열 데이터를 생성하고, 생성된 시계열 데이터를 이용하여 오목 구간을 판별하는 단계는,
    추출된 최소 다각형의 각 선분을 반시계 방향으로 연결 리스트에 저장하고, 가장 마지막에 저장된 점을 시계열 데이터 기록시 시작점으로 설정하는 단계;
    설정된 시작점으로부터 외곽선의 각 점들을 시계 방향으로 읽어 들이며, 외곽선의 각 점으로부터 최소 다각형의 각 선분에 수직으로 맞닿는 점까지의 유클리디언 거리(Euclidean Distance)를 계산하여 순서대로 기록한 시계열 데이터 A를 생성하는 단계;
    설정된 시작점으로부터 외곽선의 각 점들을 시계 방향으로 읽어들이며, 외곽선의 각 점으로부터 최소 다각형의 각 선분의 양 끝 점까지의 유클리디언 거리(Euclidean Distance)의 합을 계산하고, 최소 다각형의 다른 선분의 길이를 고려하여 계산된 값에서 선분의 길이를 뺀 값을 순서대로 기록한 시계열 데이터 B 생성하는 단계; 및
    시계열 데이터 A 및 시계열 데이터 B를 동시에 활용하기 위해 정규화하는 단계
    를 포함하는 근접객체 구분 방법.
  6. 제5항에 있어서,
    시계열 데이터 A로부터 오목 범위 탐색의 기준값을 설정하고, 최소 다각형의 각 선분에 대응하는 구간별 최댓값 중 기준값보다 큰 점을 추출하는 단계;
    시계열 데이터 B로부터 상기 추출된 점들이 휘어짐에 의한 오목 구간인지 판별하기 위해 오목 구간의 판별 범위를 상기 추출된 점의 시계열 데이터 값±임계값으로 설정하는 단계; 및
    상기 추출된 점에 대응하는 최소 다각형의 선분 구역에 대한 모든 시계열 데이터 값을 읽어들여 상기 추출된 점들이 휘어짐에 의한 오목 구간인지 판별하기 위한 오목 구간의 판별 범위의 기준 이내일 경우 오목 구간으로 판별하는 단계
    를 더 포함하는 근접객체 구분 방법.
  7. 제1항에 있어서,
    오목점 후보의 개수에 따라 오목점을 최종 검출 하는 단계는,
    오목점 후보의 개수가 두 개 이하일 경우, 해당 오목점을 최종 결정하고,
    오목점 후보의 개수가 세 개 이상일 경우, 해당 오목점들 중 시계열 데이터에서의 값을 오름차순으로 정렬한 후 상위 두 개의 오목점을 최종 결정하는
    근접객체 구분 방법.
  8. 카메라를 통해 객체 집단을 촬영하여 획득된 영상으로부터 근접객체 발생 여부를 판단하여, 근접객체가 발생한 경우, 전배경 영상을 획득하고 잡음을 제거하는 전배경 영상 획득부;
    전배경 영상에서 근접객체의 분리가 필요한 부분을 관심영역으로 설정하고 관심영역 영상을 획득하는 관심영역 설정부;
    근접객체 오목점 검출 알고리즘을 이용하여 관심영역 영상에서 근접객체의 오목점을 검출하는 오목점 검출부; 및
    검출된 오목점의 개수를 판단하여, 검출된 오목점이 한 개인 경우, 해당 오목점의 인덱스와 전체 외곽선 인덱스를 이용하여 계산된 범위 내 점들 중 해당 오목점과 가장 가까운 점을 선택하고, 해당 오목점과 가장 가까운 점을 연결하여 경계선을 생성함으로써 근접객체를 분리하는 근접객체 분리부
    를 포함하고,
    상기 오목점 검출부는,
    근접객체의 외곽선 및 최소 볼록 집합(Convex Hull)을 이용하여 최소 다각형을 추출하는 최소 다각형 추출부;
    추출된 최소 다각형의 선분을 이용하여 시계열 데이터를 생성하는 시계열 데이터 생성부;
    생성된 시계열 데이터를 이용하여 오목 구간을 판별하는 오목 구간 판별부;
    판별된 오목 구간의 길이, 최소 다각형의 선분 길이 및 유클리디언 거리를 이용하여 오목점 후보를 검출하는 오목점 후보 검출부; 및
    오목점 후보의 개수에 따라 오목점을 최종 검출 하는 오목점 최종 검출부
    를 포함하는 근접객체 구분 장치.
  9. 제8항에 있어서,
    근접객체 분리부는,
    검출된 오목점의 개수를 판단하여, 검출된 오목점이 두 개인 경우, 두 개의 오목점을 연결하여 경계선을 생성함으로써 근접객체를 분리하는
    근접객체 구분 장치.
  10. 제8항에 있어서,
    전배경 영상 획득부는,
    전배경 분리 및 잡음을 제거하기 위해 HSV(Hue Saturation Value)의 값을 설정한 후 이진화하여 객체의 전배경 영상을 획득하는
    근접객체 구분 장치.
  11. 삭제
  12. 제8항에 있어서,
    시계열 데이터 생성부는,
    추출된 최소 다각형의 각 선분을 반시계 방향으로 연결 리스트에 저장하고, 가장 마지막에 저장된 점을 시계열 데이터 기록시 시작점으로 설정하는
    근접객체 구분 장치.
  13. 제8항에 있어서,
    오목 구간 판별부는,
    설정된 시작점으로부터 외곽선의 각 점들을 시계 방향으로 읽어 들이며, 외곽선의 각 점으로부터 최소 다각형의 각 선분에 수직으로 맞닿는 점까지의 유클리디언 거리(Euclidean Distance)를 계산하여 순서대로 기록한 시계열 데이터 A를 생성하고;
    설정된 시작점으로부터 외곽선의 각 점들을 시계 방향으로 읽어들이며, 외곽선의 각 점으로부터 최소 다각형의 각 선분의 양 끝 점까지의 유클리디언 거리(Euclidean Distance)의 합을 계산하고, 최소 다각형의 다른 선분의 길이를 고려하여 계산된 값에서 선분의 길이를 뺀 값을 순서대로 기록한 시계열 데이터 B 생성하고;
    시계열 데이터 A 및 시계열 데이터 B를 동시에 활용하기 위해 정규화하는
    근접객체 구분 장치.
  14. 제13항에 있어서,
    오목 구간 판별부는,
    시계열 데이터 A로부터 오목 범위 탐색의 기준값을 설정하고, 최소 다각형의 각 선분에 대응하는 구간별 최댓값 중 기준값보다 큰 점을 추출하고;
    시계열 데이터 B로부터 상기 추출된 점들이 휘어짐에 의한 오목 구간인지 판별하기 위해 오목 구간의 판별 범위를 상기 추출된 점의 시계열 데이터 값±임계값으로 설정하고;
    상기 추출된 점에 대응하는 최소 다각형의 선분 구역에 대한 모든 시계열 데이터 값을 읽어들여 상기 추출된 점들이 휘어짐에 의한 오목 구간인지 판별하기 위한 오목 구간의 판별 범위의 기준 이내일 경우 오목 구간으로 판별하는
    근접객체 구분 장치.
  15. 제8항에 있어서,
    오목점 최종 검출부는,
    오목점 후보의 개수가 두 개 이하일 경우, 해당 오목점을 최종 결정하고,
    오목점 후보의 개수가 세 개 이상일 경우, 해당 오목점들 중 시계열 데이터에서의 값을 오름차순으로 정렬한 후 상위 두 개의 오목점을 최종 결정하는
    근접객체 구분 장치.
KR1020170035353A 2017-03-21 2017-03-21 오목 구간과 오목점을 이용한 근접객체 구분 방법 및 장치 KR101864533B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170035353A KR101864533B1 (ko) 2017-03-21 2017-03-21 오목 구간과 오목점을 이용한 근접객체 구분 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170035353A KR101864533B1 (ko) 2017-03-21 2017-03-21 오목 구간과 오목점을 이용한 근접객체 구분 방법 및 장치

Publications (1)

Publication Number Publication Date
KR101864533B1 true KR101864533B1 (ko) 2018-06-04

Family

ID=62628082

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170035353A KR101864533B1 (ko) 2017-03-21 2017-03-21 오목 구간과 오목점을 이용한 근접객체 구분 방법 및 장치

Country Status (1)

Country Link
KR (1) KR101864533B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117576135A (zh) * 2023-11-27 2024-02-20 北京霍里思特科技有限公司 一种基于矿石图像分割矿石的方法、设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130072465A (ko) * 2011-12-22 2013-07-02 이화여자대학교 산학협력단 다각형 모델의 침투 깊이 연산 방법
KR101281461B1 (ko) * 2012-04-24 2013-07-03 군산대학교산학협력단 영상분석을 이용한 멀티 터치 입력 방법 및 시스템
JP5750603B2 (ja) * 2011-03-23 2015-07-22 株式会社ブレイン 物体識別装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5750603B2 (ja) * 2011-03-23 2015-07-22 株式会社ブレイン 物体識別装置
KR20130072465A (ko) * 2011-12-22 2013-07-02 이화여자대학교 산학협력단 다각형 모델의 침투 깊이 연산 방법
KR101281461B1 (ko) * 2012-04-24 2013-07-03 군산대학교산학협력단 영상분석을 이용한 멀티 터치 입력 방법 및 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117576135A (zh) * 2023-11-27 2024-02-20 北京霍里思特科技有限公司 一种基于矿石图像分割矿石的方法、设备和存储介质

Similar Documents

Publication Publication Date Title
US20210191524A1 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
JP4991923B2 (ja) 画像処理方法及び装置
US9294665B2 (en) Feature extraction apparatus, feature extraction program, and image processing apparatus
KR101764845B1 (ko) 다중 이동 물체의 겹침 제거 및 추적을 위한 영상 감시 장치 및 방법
US8073208B2 (en) Method and system for classifying scene for each person in video
JP5706647B2 (ja) 情報処理装置、およびその処理方法
US20140037159A1 (en) Apparatus and method for analyzing lesions in medical image
US20140241626A1 (en) Method and apparatus for analyzing video based on spatiotemporal patterns
JP5106356B2 (ja) 画像監視装置
JP6075190B2 (ja) 画像処理方法及び装置
JP7069840B2 (ja) 個体計数装置、個体計数方法、個体計数プログラム、及び個体計数システム
CN101383005B (zh) 一种利用辅助规则纹理的乘客目标图像和背景分离方法
JP2010003177A (ja) 画像処理装置
US8660302B2 (en) Apparatus and method for tracking target
KR20140031742A (ko) 이미지 특징 추출 장치 및 이미지 특징 추출 방법, 그를 이용한 영상 처리 시스템
CN111145223A (zh) 多摄像头识别人员行为轨迹分析方法
US20140286568A1 (en) Information processing apparatus and training method
JPWO2011061905A1 (ja) 物体領域抽出装置、物体領域抽出方法、及びプログラム
KR101967007B1 (ko) 홍채들을 비교하기 위해 파라미터화된 컨투어들을 검색하는 방법
CN108960247B (zh) 图像显著性检测方法、装置以及电子设备
KR101735874B1 (ko) 차량 번호판 검출 장치 및 방법
KR101864533B1 (ko) 오목 구간과 오목점을 이용한 근접객체 구분 방법 및 장치
KR101421952B1 (ko) 얼굴 인식 장치 및 방법
KR102195940B1 (ko) 적응적 비최대억제 방법을 이용하는 딥러닝기반 영상객체 탐지를 위한 장치 및 방법
CN109767417B (zh) 病灶检测装置及其方法

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant