KR101274741B1 - 객체 영역의 유효성 판단 방법 및 장치, 객체 추출 방법 - Google Patents

객체 영역의 유효성 판단 방법 및 장치, 객체 추출 방법 Download PDF

Info

Publication number
KR101274741B1
KR101274741B1 KR1020110100629A KR20110100629A KR101274741B1 KR 101274741 B1 KR101274741 B1 KR 101274741B1 KR 1020110100629 A KR1020110100629 A KR 1020110100629A KR 20110100629 A KR20110100629 A KR 20110100629A KR 101274741 B1 KR101274741 B1 KR 101274741B1
Authority
KR
South Korea
Prior art keywords
value
image
validity
extracted
symmetry measure
Prior art date
Application number
KR1020110100629A
Other languages
English (en)
Other versions
KR20130036511A (ko
Inventor
홍광석
김동주
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Priority to KR1020110100629A priority Critical patent/KR101274741B1/ko
Publication of KR20130036511A publication Critical patent/KR20130036511A/ko
Application granted granted Critical
Publication of KR101274741B1 publication Critical patent/KR101274741B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/68Analysis of geometric attributes of symmetry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

개시된 기술은 영상에서 객체를 추출하여 상기 추출된 객체 영역의 유효성을 판단하는 방법에 있어서, 객체를 포함하는 영상을 입력받는 단계; 상기 영상에서 상기 객체의 윤곽선을 검출하여 상기 객체를 추출하는 단계; 상기 추출된 객체에 대하여 대칭성 척도 값을 계산하는 단계; 및 상기 대칭성 척도 값을 기초로 하여 상기 추출된 객체의 유효성을 판단하되, 상기 대칭성 척도 값이 미리 정해진 제1임계값 보다 작은 경우 상기 객체의 추출을 유효한 것으로 판단하는 단계를 포함하는 객체 영역의 유효성 판단 방법 및 장치를 제공한다. 또한, 영상에서 객체의 윤곽선을 검출하여 상기 객체를 추출하는 방법에 있어서, 상기 영상을 전처리하여 상기 객체 이외의 배경 영역에서 엣지(edge) 성분을 감소시키는 단계; 상기 영상에서 상기 객체를 통과하게끔 수직선 및 수평선을 생성하는 단계; 상기 수직선 및 상기 수평선이 상기 객체와 상기 배경과의 경계와 만나는 점 네 개를 선택하는 단계; 상기 각각의 네 점들로부터 상기 객체의 경계를 트래킹 하여 윤곽선을 검출하는 단계를 포함하는 객체를 추출 방법을 제공한다.

Description

객체 영역의 유효성 판단 방법 및 장치, 객체 추출 방법{METHOD FOR VALIDATION OF OBJECT BOUNDARIES AND SYSTEM OF THEREOF, METHOD FOR DETECTION OF OBJECT}
본 발명은 컴퓨터, 휴대용 단말기 및 전자 기기의 촬영 장치를 이용하여 획득한 영상을 입력받아 객체를 추출하는 방법에 관한 것이다.
영상으로부터 객체를 인식하는 기술은 영상 처리나 패턴 인식, 컴퓨터 비전과 같은 다양한 분야에 걸쳐서 활발히 연구되고 있고, 상업적, 법적으로 수많은 응용분야를 가지고 있다. 최근, PDA나 스마트폰 등과 같은 모바일 기기에 내장된 카메라를 이용하여 영상을 획득할 수 있으며, 모바일 기기의 사용이 증대됨에 따라 사용자의 편의를 위해 모바일 기기를 이용한 객체 인식에 대한 요구가 증대되고 있는 실정이다.
컴퓨터 비전에서 객체 인식이란, 한 영상과 모델 데이터베이스가 주어졌을 때, 영상 내의 객체와 가장 유사한 모델을 데이터베이스에서 검색해 내는 일련의 과정을 말한다. 그러나, 동일한 객체라 하더라도 각각의 영상에서는 객체의 크기, 방향, 위치, 포즈 등이 다르게 나타날 수 있고, 또한 한 영상 내에 여러 개의 객체가 포함되어 있거나 아니면 해당 객체가 다른 객체에 의해 가려져 그 일부분만 볼 수 있는 경우도 있기 때문에 이러한 모든 조건에서 강인하게 동작하는 인식 기법에 대한 연구가 많이 진행되어 왔다.
[관련기술문헌]
1. 영상에서 관심 영역 지정 및 윤곽선 영상을 이용한 객체 인식 방법 및 장치(특허출원번호: 제10-2009-0109727호)
2. 디지털 영상 처리기에서 꽃을 인식하는 장치 및 방법 (특허출원번호: 제10-2008-0134964호)
개시된 기술이 이루고자 하는 기술적 과제는 영상에서 객체를 추출하고 추출된 객체의 대칭성 척도값을 기준으로 하여 객체의 유효성을 판단하는 방법 및 장치를 제공하는데 있다. 또한, 영상을 전처리하고, 영상의 배경과 객체의 경계점으로부터 객체 영역을 자동으로 추출하는 방법을 제공하는데 있다.
상기의 기술적 과제를 이루기 위해 개시된 기술의 제1측면은, 영상에서 객체를 추출하여 상기 추출된 객체 영역의 유효성을 판단하는 방법에 있어서, 객체를 포함하는 영상을 입력받는 단계; 상기 영상에서 객체의 윤곽선을 검출하여 객체를 추출하는 단계; 상기 추출된 객체에 대하여 대칭성 척도 값을 계산하는 단계; 및 상기 대칭성 척도 값을 기준으로 하여 추출된 객체의 유효성을 판단하되, 상기 대칭성 척도 값이 미리 정해진 제1임계값 보다 작은 경우 상기 객체의 추출을 유효한 것으로 판단하는 단계를 포함하는 객체 영역의 유효성 판단 방법을 제공한다.
상기의 기술적 과제를 이루기 위해 개시된 기술의 제2측면은, 영상에서 객체의 윤곽선을 검출하여 상기 객체를 추출하는 방법에 있어서, 상기 영상을 전처리하여 상기 영상에서 상기 객체 이외의 배경에 존재하는 엣지(edge) 성분을 감소시키는 단계; 상기 영상에서 상기 객체를 통과하게끔 수직선 및 수평선을 생성하는 단계; 상기 수직선 및 상기 수평선이 상기 객체와 상기 배경과의 경계와 만나는 네 개의 점을 선택하는 단계; 상기 각각의 네 점들로부터 상기 객체의 경계를 트래킹하여 윤곽선을 검출하는 단계를 포함하는 객체 추출 방법을 제공한다.
상기의 기술적 과제를 이루기 위해 개시된 기술의 제3측면은, 영상에서 객체를 추출하여 상기 추출된 객체 영역의 유효성을 판단하는 장치에 있어서, 객체를 포함하는 영상을 입력받는 영상 입력부; 상기 영상에서 상기 객체의 윤곽선을 검출하여 상기 객체를 추출하는 객체 추출부; 상기 추출된 객체에 대하여 대칭성 척도 값을 계산하는 대칭성 척도 값 계산부; 및 상기 대칭성 척도 값을 기준으로 하여 상기 추출된 객체의 유효성을 판단하되, 상기 대칭성 척도 값이 미리 정해진 제1임계값 보다 작은 경우 상기 객체의 추출을 유효한 것으로 판단하는 유효성 판단부를 포함하는 객체 영역의 유효성 판단 장치를 제공한다.
삭제
삭제
개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
일 실시예에 따른 객체 영역의 유효성 판단 방법은 대칭성 척도값을 기준으로 하여 객체 영역의 유효성을 판단하므로, 대칭성을 가지는 객체를 효율적으로 판별할 수 있는 장점이 있다. 또한, 객체의 일부 영역만 검출된 경우에는 미 추출된 영역을 사용자가 드로잉하여 선택하는 구성을 제공함으로써, 객체 전체에 대해 유효성 판단을 재 수행하는 과정을 줄일 수 있다.
일 실시예에 따른 객체 추출 방법은 객체와 배경의 네 경계점 각각에서 IS(Intelligent Scissor)알고리즘을 사용하여 객체를 추출하므로, 기존 추출 방법에 비해 신속한 객체 추출을 수행할 수 있는 장점이 있다.
삭제
삭제
도 1은 본 발명의 일 실시예에 따른 객체 영역의 유효성을 판단하는 장치를 보여주는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 객체 영역의 유효성을 판단하는 단계를 보여주는 순서도이다.
도 3은 입력된 영상으로부터 객체가 추출된 모습을 보여주는 도면이다.
도 4는 본 발명의 일 실시예에 따라 대칭성 척도 값을 계산하기 위해 객체의 중심축과 중심축으로부터 객체의 윤곽선까지의 거리를 나타낸 도면이다.
도 5는 객체의 중심축으로부터 객체의 윤곽선까지의 거리 정보를 이용하여 계산된 대칭성 척도 값의 분포를 보여주는 그래프이다.
도 6은 본 발명의 일 실시예에 따라 추출된 객체의 윤곽선과, 객체 이외의 영역을 제거한 영상을 나타내는 도면이다.
도 7은 객체를 지나는 수평선 및 상기 수평선의 로컬 코스트(LC)값을 보여주는 그래프이다.
도 8은 본 발명의 일 실시예에 따라 전처리가 수행된 영상에서 객체를 지나는 수평선 및 상기 수평선의 로컬 코스트(LC)값을 보여주는 그래프이다.
개시된 기술에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다.
한편, 본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의된 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.

도 1은 본 발명의 일 실시예에 따른 객체 영역의 유효성을 판단하는 장치를 보여주는 블록도이다. 도 1을 참조하면, 객체의 유효성 판단 장치(100)는 영상 입력부(110), 객체 추출부(120), 대칭성 척도 값 계산부(130) 및 유효성 판단부(140)를 포함한다.
영상 입력부(110)는 카메라 또는 이미지 센서와 같은 촬영 소자를 포함하며, 촬영에 의해 객체를 포함한 영상을 입력받는다. 여기서 객체는 촬영의 목적에 해당되는 피사체이며, 실시예에 따라 다양한 피사체가 객체로서 입력 될 수 있으나, 본 발명은 꽃 영상으로부터 꽃 영역을 추출하는 데 특화된 장점을 가지므로 이하의 설명에서 영상은 꽃을 포함하는 영상으로, 객체는 꽃을 지칭하는 것으로 설명하도록 한다. 영상 입력부(110)는 실시간 촬영에 의해 영상을 입력 받으나 실시예에 따라, 기 촬영된 영상을 저장하는 DB로부터 영상을 입력 받을 수 있다.
객체 추출부(120)는 영상 입력부(110)로부터 입력된 영상을 이용하여 객체의 윤곽선을 검출한다. 윤곽선 검출은 영상에서 객체를 통과하게끔 수직선 및 수평선을 생성하고, 수직선 및 수평선이 객체와 배경의 경계점과 만나는 네 개의 점을 선택한다. 이어서, 네 개의 점 각각으로부터 객체의 경계면을 트래킹 하여 윤곽선을 검출한다.
윤곽선 검출을 상세히 설명하면, 객체 추출부(120)는 입력받은 영상을 전처리하여 영상에서 객체 이외의 배경에 존재하는 엣지 성분을 감소시킨다. 여기서, 엣지 성분은 영상을 이루는 픽셀의 색 성분 값(R,G,B)이 급격하게 바뀌는 부분을 의미하며, 로컬 코스트 값(Local Coast, 이하 LC값)에 의해 계산된다. LC값의 계산은 도 7의 설명에서 설명하도록 한다. 실시예에 의하면 엣지 성분의 감소는 적응 필터링 알고리즘을 사용하여 수행된다. 전처리에 의해 엣지 성분을 감소시키는 이유는, 영상에서 객체의 경계면 이외의 부분, 즉 배경에 해당되는 부분에 존재하는 엣지 성분에 의해 객체가 잘못 추출되는 것을 방지하기 위함이다.
여기서 엣지 성분을 용이하게 설명하기 위해 도 7 및 도 8을 참조하도록 한다.
도 7 (a)는 영상을 지나는 수평선을 보여주고, 도 7 (b)는 수평선을 이루는 픽셀의 LC값을 보여주는 그래프이다. LC값은 수학식 1에 의해 표현된다.

Figure 112011083988068-pat00032

수학식 1에서, G는 픽셀의 그레디언트(Gradient) 크기 값, MG는 전체 픽셀에서 최대 크기를 갖는 그레디언트 값(G)을 의미한다. 이때 G 값은 수학식 2에 의해 계산된다.
Figure 112011083988068-pat00033

수학식 2에서,
Figure 112011083988068-pat00034
,
Figure 112011083988068-pat00035
,
Figure 112011083988068-pat00036
는 각각 컬러영상에서 Red성분, Green성분, Blue성분의 Gradient 값을 의미하며, Red성분의 Gradient값
Figure 112011083988068-pat00037
는 수학식 3에 의해 계산되고, 수학식 3에서
Figure 112011083988068-pat00038
Figure 112011083988068-pat00039
는 각각 Red성분의 수평 및 수직 성분의 Gradient 값,
Figure 112011083988068-pat00040
은 Red성분의 픽셀값을 의미한다.
Figure 112011083988068-pat00041

도 7 (b)에 의하면 LC값은 영상과 객체의 경계면 외에도 배경영역 또는 객체의 내부 영역에서도 급격한 값의 변화(엣지 성분)를 보이므로, 배경과 객체의 경계점을 검출함에 있어 방해 요소로 작용한다.
따라서, 배경과 객체의 경계점 검출을 용이하게 하기 위하여 적응 필터링 알고리즘을 사용하여 배경의 엣지 성분을 감소시킨다.
도 8은 본 발명의 일 실시예에 따라 전처리가 수행된 영상에서 객체를 지나는 수평선과 수평선을 이루는 픽셀의 로컬 코스트(LC)값을 보여주는 그래프이다.
도 8 (a)는 수학식 4에 의한 적응 필터링 알고리즘을 적용하여 전처리를 수행한 영상을 보여준다.
Figure 112011083988068-pat00042

수학식 4에서
Figure 112011083988068-pat00043
는 필터링 후의 Gradient 값을 의미하여,
Figure 112011083988068-pat00044
는 입력 영상의 Gradient 값,
Figure 112011083988068-pat00045
은 m에 따라 정해지는 상수 값을 의미한다. 도 8 (a)에서 도시하는 바와 같이 적응 필터링 알고리즘을 적용하여 배경의 엣지 성분들이 제거되었음을 알 수 있다.
도 8 (b)는 적응 필터링 알고리즘의 전처리가 수행된 영상에서 객체를 지나는 수평선의 로컬 코스트(LC)값을 보여주는 그래프이다. 배경에 존재하는 엣지 성분들이 제거되어 배경과 객체의 경계를 명확하게 알 수 있다.
도 8은 객체를 지나는 수평선에 의해 두 경계점이 선택되는 것을 보여주고 있으나, 객체 추출부(120)는 이와 유사한 방법으로 객체를 지나는 수직선을 생성하고 배경과 객체의 두 경계점을 선택함으로써, 배경과 객체의 네 경계점을 모두 선택한다. 실시예에 의하면 각 점의 선택은 수평선 및 수직선에서 LC값이 최소인 점을 선택하는 것으로 하나, LC 값은 계산식에 따라 최대값, 최소값이 바뀔 수 있으므로 각 점은 LC 값이 급격하게 변하는 지점을 경계점으로 선택할 수 있다.
이어서 객체 추출부(120)는 네 개의 점 각각으로부터 객체의 경계면을 트래킹(Tracking)하여 윤곽선을 검출한다. 이때, 트래킹은 IS(Intelligent Scissor) 알고리즘에 의해 수행된다. IS 알고리즘 수행에 의해 네 개의 점을 연결하는 선이 서로 이어짐으로써 윤곽선이 검출되고 객체는 추출된다. 이때 객체가 추출된다고 함은, 객체의 윤곽선이 폐루프를 형성하여 객체가 영상의 배경으로부터 분리된 영역을 가지게 되는 것을 말한다. 한편, IS 알고리즘은 수학식 5에 기초하여 수행된다.
Figure 112011083988068-pat00046

여기서
Figure 112011083988068-pat00047
는 비용함수로서 포인트 p로부터 다음 포인트 q를 찾는데 사용되는 값이다.
Figure 112011083988068-pat00048
는 canny edge의 결과 값
Figure 112011083988068-pat00049
와 그레디언트(Gradient) 값
Figure 112011083988068-pat00050
의 가중치
Figure 112011083988068-pat00051
의 결합으로 계산된다. 경계점 사이의 최적 경로의 연산은
Figure 112011083988068-pat00052
값과 Two-Dimensional Dynamic Programming 알고리즘에 의하여 수행된다.
다시 도 1을 참조하면, 대칭성 척도 값 계산부(130)는 추출된 객체에 대하여 대칭성 척도 값을 계산한다. 한편, 영상 입력부(110)에 의해 입력받은 영상은 객체의 수평을 확인하고, 대칭성 척도 값 계산을 유효하게 하기 위하여, 객체의 유효성 판단 장치(100)는 영상 회전부를 더 포함할 수 있다.
일 실시예에 의하면, 영상 회전부는 추출된 객체의 중심점으로부터 객체의 윤곽선(객체와 배경과의 경계선)까지의 최대 거리값을 갖는 좌표를 연결하는 직선과 영상의 세로축 또는 가로축과의 각도를 계산하여, 계산된 각도만큼 영상을 회전시킨다. 다른 실시예에 의하면 영상 회전부는 추출된 객체만을 회전시킬 수도 있다.
일 실시예에 의하면, 대칭성 척도 값의 계산은 추출된 객체의 중심축으로부터 객체의 윤곽선까지의 정규화된 거리 차이 값의 평균에 의해 계산된다. 거리 값의 평균을 명확히 설명하기 위해 도 4를 참조하도록 한다.
도 4는 객체의 중심축과 중심축으로부터 객체의 윤곽선까지의 거리를 측정하기 위한 도면이다. 가로축 W는 추출된 객체 영상의 너비(width)를 의미하고 세로축 H는 높이(height)를 의미한다. 도 4 (a)의 d1과 d2는 객체 영상의 세로축과 객체의 윤곽선까지의 거리를 나타낸다.
수학식 6은 세로축을 기준으로 대칭성 척도 값을 계산하는 식이다.
Figure 112011083988068-pat00053

수학식 7은 가로축을 기준으로 대칭성 척도 값을 계산하는 식이다.
Figure 112011083988068-pat00054

이때, 가로축 W는 추출된 객체 영상의 너비(width)를 의미하고 세로축 H는 높이(height)를 의미한다. 도 4 (b)의 d3과 d4는 객체 영상의 가로축과 객체의 윤곽선까지의 거리를 나타낸다.
유효성 판단부(140)는 대칭성 척도 값 VR 내지 HR을 기준으로 추출된 객체의 유효성을 판단한다. 일 실시예에 의하면 객체가 수직축을 기준으로 하여 좌우 대칭만 가지는 경우, 유효성 판단부(140)는 VR값을 기준으로 추출된 객체의 유효성을 판단한다. 객체가 좌우 대칭성을 가질 경우 객체 추출부(120)에서 객체가 정확히 추출되었다면, 추출된 객체에서 d1과 d2는 정규한 분포를 가지게 된다. 따라서, 유효성 판단부(140)는 VR값을 미리 정해진 임계값 (제1 임계값)과 비교하여 제1 임계값보다 VR값이 작게 측정된 경우 상기 객체의 추출을 유효한 것으로 판단한다.
유효성 판단을 명확하게 설명하게 위해 도 3 및 도 5를 참조한다.
도 3 (b)는 객체의 일부 영역만이 추출되었기 때문에 VR값이 제1 임계값보다 크게 계산된다. 따라서 유효성 판단부(140)는 도 3 (b)의 객체 추출을 유효하지 않다고 판단한다. 도 3 (a)는 객체 영역에 맞추어 객체가 잘 추출되었기 때문에 VR값이 제1 임계값보다 작게 계산된다. 따라서 유효성 판단부(140)는 도 3 (a)의 객체 추출을 유효하다고 판단한다.
도 5는 객체 영상의 기준축으로부터 객체의 윤곽선까지의 거리 정보를 이용하여 계산된 대칭성 척도 값의 분포를 보여주는 그래프이다. 영상으로부터 객체 영역이 유효하게 추출된 경우, 붉은 선으로 표시된 것과 같이 대칭성 척도는 작은 값을 갖는 분포를 보인다. 그러나 객체 영역이 유효하게 추출되지 않은 경우, 파란 선으로 표시된 바와 같이 거리 값이 큰 분포를 보인다.
실시예에 의하면 객체가 좌우 대칭을 가지는 경우 유효성의 판단은 VR값을 기준으로 하여 수행될 수 있으나, 객체가 상하 대칭을 가지는 경우 유효성의 판단은 HR값을 기준으로 하여 수행될 수 있다. 또한 객체가 상하, 좌우 모두 대칭성을 가지는 경우 VR값 및 HR값의 평균값에 의해 객체 추출의 유효성을 판단할 수 있다.
이때, 대칭성 척도 값은 수식 8에 의해 계산된다.
Figure 112011083988068-pat00055

실시예에 따라 유효성 판단부(140)는 대칭성 척도 값이 제1 임계값보다 크지만 제2 임계값보다 작은 경우 사용자 조작에 의하여 객체의 적어도 일부 영역을 입력 받을 수 있다. 적응 필터링 알고리즘 수행시에도 배경과 객체의 분리가 어려운 경우 사용자로부터 직접 객체 영역을 입력 받을 수 있다. 실시예에 따라, 대칭성 척도 값이 제1 임계값보다 크고 제2 임계값보다 큰 경우 영상 입력부(110)를 통하여 영상을 새로 입력 받을 수도 있다.
상술한 일 실시예에 따른 객체 영역의 유효성 판단 장치는 대칭성 척도값을 기준으로 하여 객체 영역의 유효성을 판단하므로, 대칭성을 가지는 객체를 효율적으로 판별할 수 있는 장점이 있다. 또한, 객체의 일부 영역만 검출되어 객체가 비대칭적으로 추출된 경우에는 미 추출된 영역을 사용자가 드로잉하여 선택하는 구성을 제공함으로써, 객체 전체에 대해 유효성 판단을 재 수행하는 과정을 줄일 수 있는 장점이 있다.
또한 상술한 실시예에 따른 객체 추출방법은 객체와 배경의 네 경계점 각각에서 IS(Intelligent Scissor)알고리즘을 사용하여 객체를 추출하므로, 기존 추출 방법에 비해 신속한 객체 추출을 수행할 수 있는 장점이 있다.

도 2는 본 발명의 일 실시예에 따른 객체 영역의 유효성을 판단하는 단계를 보여주는 순서도이다. 이하, 도 2를 참조하여 객체 영역의 유효성을 판단하는 방법에 대하여 설명하도록 한다. 도 1의 유효성 판단 장치(100)를 시계열적으로 구현한 경우에도 본 실시예에 해당하므로 영상 입력부(110), 객체 추출부(120), 대칭성 척도 계산부(130) 및 유효성 판단부(240)에 대하여 설명된 부분은 본 실시예에서도 그대로 적용된다.
S201 단계에서, 유효성 판단 장치(100)는 촬영장치를 이용하여 영상을 입력받는다. 영상 입력은 실시간 촬영에 의해 영상을 입력 받을 수 있으며 실시예에 따라, 기 촬영된 영상을 저장하는 DB로부터 영상을 입력 받을 수 있다.
S202 단계에서, 유효성 판단 장치(100)는 객체 영역을 자동으로 검출한다. 여기서 자동으로 검출한다는 것은 유효성 판단 장치(100)가 입력된 영상에 대하여 데이터 연산을 수행함으로써, 영상에 포함된 객체의 윤곽선을 검출하는 것을 의미한다. 윤곽선의 검출은 영상에서 객체를 통과하게끔 수직선 및 수평선을 생성한다. 유효성 판단 장치(100)는 수직선 및 수평선이 객체와 배경의 경계점과 만나는 네 개의 점을 선택한다. 유효성 판단 장치(100)는 네 개의 점 각각으로부터 객체의 경계면을 트래킹(Tracking)하여 윤곽선을 검출한다.
S203 단계에서, 유효성 판단 장치(100)는 영상을 회전시킨다. S201 단계에서 입력받은 영상은 객체의 수평을 확인하고, 대칭성 척도 값 계산을 유효하게 하기 위하여 영상 회전을 수행한다. 일 실시예에 의하면, 추출된 객체의 중심점으로부터 객체의 윤곽선(객체와 배경과의 경계선)까지의 최대 거리값을 가지는 좌표를 연결하는 직선과 영상의 세로축 또는 가로축과의 각도를 계산하여, 계산된 각도만큼 영상을 회전시킨다. 다른 실시예에 의하면 추출된 객체만을 회전시킬 수도 있다.
S204 단계에서, 유효성 판단 장치(100)는 대칭성 척도 값을 계산한다. 대칭성 척도 값은 상술한 수학식 6, 수학식 7, 또는 수학식 8에 의해 계산된다.
S205 단계에서, 유효성 판단 장치(100)는 추출된 객체의 유효성을 판단한다. 이때, 대칭성 척도 값이 미리 정해진 제1 임계값보다 작으면 유효성 판단 장치(100)는 상기 객체의 윤곽선 추출을 유효한 것으로 판단한다.
대칭성 척도 값이 제1 임계값보다 큰 경우, 유효성 판단 장치(100)는 미리 정해진 제2 임계값과 비교하고(S207), 제2 임계값 보다 작으면 사용자 드로잉에 의하여 객체의 적어도 일부 영역을 입력받고(S208), 제 2 임계값보다 크면 객체를 포함하는 영상을 재 입력받는다(S209).

상술한 일 실시예에 따른 객체 영역의 유효성 판단 방법은 대칭성 척도값을 기준으로 하여 객체 영역의 유효성을 판단하므로, 대칭성을 가지는 객체를 효율적으로 판별할 수 있는 장점이 있다. 또한, 객체의 일부 영역만 검출되어 객체가 비 대칭적으로 추출된 경우에는 미 추출된 영역을 사용자가 드로잉하여 선택하는 구성을 제공함으로써, 객체 전체에 대해 유효성 판단을 재 수행하는 과정을 줄일 수 있는 장점이 있다.
또한 상술한 실시예에 따른 객체 추출방법은 객체와 배경의 네 경계점 각각에서 IS(Intelligent Scissor)알고리즘을 사용하여 객체를 추출하므로, 기존 추출 방법에 비해 신속한 객체 추출을 수행할 수 있는 장점이 있다.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
100 : 객체의 유효성 판단 장치
110 : 영상 입력부
120 : 객체 추출부
130 : 대칭성 척도 값 계산부
140 : 유효성 판단부

Claims (16)

  1. 영상에서 객체를 추출하여 상기 추출된 객체 영역의 유효성을 판단하는 방법에 있어서,
    (a) 객체를 포함하는 영상을 입력받는 단계;
    (b) 상기 영상에서 상기 객체의 윤곽선을 검출하여 상기 객체를 추출하는 단계;
    (c) 상기 추출된 객체에 대하여 대칭성 척도 값을 계산하는 단계; 및
    (d) 상기 대칭성 척도 값을 기준으로 하여 상기 추출된 객체의 유효성을 판단하되,
    상기 (d) 단계는 상기 대칭성 척도 값이 미리 정해진 제1임계값 보다 작은 경우, 상기 객체의 추출을 유효한 것으로 판단하고,
    상기 대칭성 척도 값이 상기 제1임계값 보다 큰 경우, 미리 정해진 제2임계값과 비교하여, 상기 제2임계값보다 큰 경우 상기 객체를 포함하는 영상을 재 입력받고, 상기 제2임계값보다 작은 경우 사용자의 조작에 의하여 상기 객체의 적어도 일부 영역을 입력받는 단계를 더 포함하는 객체 영역의 유효성 판단 방법.
  2. 삭제
  3. 제 1항에 있어서, 상기 (b) 단계 이후
    상기 추출된 객체의 중심점으로부터 상기 객체의 윤곽선까지의 최대 거리 값을 가지는 좌표를 연결하는 직선과 상기 영상의 세로축 또는 가로축과의 각도를 계산하여 상기 계산된 각도만큼 상기 영상을 회전시키는 단계를 더 포함하는 객체 영역의 유효성 판단 방법.
  4. 제 1항에 있어서, 상기 윤곽선의 검출은
    적응 필터링 알고리즘에 의한 전처리 과정 및 IS(Intelligent Scissor) 알고리즘에 의해 수행되는 객체 영역의 유효성 판단 방법.
  5. 영상에서 객체의 윤곽선을 검출하여 상기 객체를 추출하는 방법에 있어서,
    (a) 상기 영상을 전처리하여 상기 객체 이외의 배경에 존재하는 엣지 성분을 감소시키는 단계;
    (b) 상기 영상에서 상기 객체를 통과하게끔 수직선 및 수평선을 생성하는 단계;
    (c) 상기 수직선 및 상기 수평선이 상기 객체와 상기 배경과의 경계와 만나는 네 개의 점을 선택하는 단계;
    (d) 상기 각각의 네 점들로부터 상기 객체의 경계를 트래킹하여 윤곽선을 검출하는 단계를 포함하는 객체 추출 방법.
  6. 제 5항에 있어서,
    상기 전처리는 적응 필터링 알고리즘을 이용하여 수행되는 객체 추출 방법.
  7. 제 5항에 있어서,
    상기 트래킹은 IS(Intelligent Scissor) 알고리즘을 이용하여 수행되는 객체 추출 방법.
  8. 제 5항에 있어서, 상기 각각의 네 점의 선택은
    상기 수직선 및 상기 수평선의 로컬 코스트 값(Local Cost, 이하 LC값)이 급격하게 변하는 지점을 각각의 점으로 선택하는 객체 추출 방법.
  9. 제 8항에 있어서,
    상기 각 점들은 상기 LC값이 최소인 점이며,
    상기 LC값은 수식 LC = 1 + MG - G (여기서, G는 픽셀의 그레이언트(Gradient) 크기 값이고, MG는 전체 픽셀에서 최대 크기를 가지는 G값임)에 의해 계산되는 객체 추출 방법.
  10. 제 8항에 있어서,
    상기 LC값의 계산은
    상기 객체를 구성하는 픽셀들의 성분값(R,G,B) 중에서 사용빈도가 가장 높은 색 성분값을 기준으로 하여 계산하는 객체 추출 방법.
  11. 제 1항에 있어서,
    상기 대칭성 척도 값의 계산은 상기 추출된 객체의 중심축으로부터 상기 객체의 윤곽선까지의 거리 차이 값의 평균에 의해 계산되는 객체 영역의 유효성 판단 방법.
  12. 제 11항에 있어서,
    상기 중심축은 상기 추출된 객체에 대하여 수직인 축이거나 수평인 축인 객체 영역의 유효성 판단 방법.
  13. 제 11항에 있어서, 상기 대칭성 척도 값의 계산은
    수식
    Figure 112012099979527-pat00056
    에 의하여 계산되고(여기서 R은 상기 대칭성 척도 값, VR은 세로축에 대한 대칭성 척도 값, HR은 가로축에 대한 대칭성 척도 값),
    상기 VR 및 HR은 수식
    Figure 112012099979527-pat00057
    ;
    Figure 112012099979527-pat00058

    (d1, d2는 세로축으로부터 상기 검출된 윤곽선까지의 거리값, d3, d4는 가로축으로부터 상기 검출된 윤곽선까지의 거리값, H는 객체의 높이, W는 객체의 너비)에 의해 계산되는 객체 영역의 유효성 판단 방법.
  14. 영상에서 객체를 추출하여 상기 추출된 객체 영역의 유효성을 판단하는 장치에 있어서,
    객체를 포함하는 영상을 입력받는 영상 입력부;
    상기 영상에서 상기 객체의 윤곽선을 검출하여 상기 객체를 추출하는 객체 추출부;
    상기 추출된 객체에 대하여 대칭성 척도 값을 계산하는 대칭성 척도 값 계산부; 및
    상기 대칭성 척도 값을 기준으로 하여 상기 추출된 객체의 유효성을 판단하되,상기 대칭성 척도 값이 미리 정해진 제1임계값 보다 작은 경우 상기 객체의 추출을 유효한 것으로 판단하는 유효성 판단부를 포함하고,
    상기 유효성 판단부는 상기 대칭성 척도 값이 상기 제1임계값 보다 큰 경우 미리 정해진 제2임계값과 비교하여, 상기 제2임계값보다 큰 경우 상기 객체를 포함하는 영상을 재 입력받고, 상기 제2임계값보다 작은 경우 사용자의 조작에 의하여 상기 객체의 적어도 일부 영역을 입력받는 객체 영역의 유효성 판단 장치.


  15. 삭제
  16. 삭제
KR1020110100629A 2011-10-04 2011-10-04 객체 영역의 유효성 판단 방법 및 장치, 객체 추출 방법 KR101274741B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110100629A KR101274741B1 (ko) 2011-10-04 2011-10-04 객체 영역의 유효성 판단 방법 및 장치, 객체 추출 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110100629A KR101274741B1 (ko) 2011-10-04 2011-10-04 객체 영역의 유효성 판단 방법 및 장치, 객체 추출 방법

Publications (2)

Publication Number Publication Date
KR20130036511A KR20130036511A (ko) 2013-04-12
KR101274741B1 true KR101274741B1 (ko) 2013-06-17

Family

ID=48437798

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110100629A KR101274741B1 (ko) 2011-10-04 2011-10-04 객체 영역의 유효성 판단 방법 및 장치, 객체 추출 방법

Country Status (1)

Country Link
KR (1) KR101274741B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102143427B1 (ko) * 2018-10-18 2020-08-11 네오컨버전스 주식회사 인공지능 학습을 위한 객체 지정 방법 및 장치
KR102161679B1 (ko) * 2020-01-03 2020-10-05 주식회사 케이스랩 객체 인식 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196359A (ja) 2004-01-05 2005-07-21 Honda Motor Co Ltd 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム
KR20090074927A (ko) * 2008-01-03 2009-07-08 전남대학교산학협력단 차량검출방법
KR20100104536A (ko) * 2009-03-18 2010-09-29 (주)에스엔알 높은 신뢰도를 갖는 무인 감시 방법, 무인 감시 장치 및 무인 감시 시스템
KR20110030114A (ko) * 2009-09-17 2011-03-23 고려대학교 산학협력단 효과적인 3차원 객체 인식을 위한 외형 기반 인덱스 구축 및 검색 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196359A (ja) 2004-01-05 2005-07-21 Honda Motor Co Ltd 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム
KR20090074927A (ko) * 2008-01-03 2009-07-08 전남대학교산학협력단 차량검출방법
KR20100104536A (ko) * 2009-03-18 2010-09-29 (주)에스엔알 높은 신뢰도를 갖는 무인 감시 방법, 무인 감시 장치 및 무인 감시 시스템
KR20110030114A (ko) * 2009-09-17 2011-03-23 고려대학교 산학협력단 효과적인 3차원 객체 인식을 위한 외형 기반 인덱스 구축 및 검색 방법

Also Published As

Publication number Publication date
KR20130036511A (ko) 2013-04-12

Similar Documents

Publication Publication Date Title
CN110717489B (zh) Osd的文字区域的识别方法、装置及存储介质
JP5554984B2 (ja) パターン認識方法およびパターン認識装置
US10534957B2 (en) Eyeball movement analysis method and device, and storage medium
US20180210556A1 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
EP3358298B1 (en) Building height calculation method and apparatus, and storage medium
CA2867365C (en) Method, system and computer storage medium for face detection
KR101272448B1 (ko) 관심영역 검출 장치와 방법 및 상기 방법을 구현하는 프로그램이 기록된 기록매체
CN109086724B (zh) 一种加速的人脸检测方法及存储介质
US20140233827A1 (en) Identification method for valuable file and identification device thereof
US9483680B2 (en) Method of recognizing contactless fingerprint and electronic device for performing the same
US20080292192A1 (en) Human detection device and method and program of the same
CN110264493A (zh) 一种针对运动状态下的多目标对象追踪方法和装置
CN107423306B (zh) 一种图像检索方法及装置
CN105611142B (zh) 一种拍照方法及装置
US20200042788A1 (en) Eyeball movement capturing method and device, and storage medium
JP2011113313A (ja) 姿勢推定装置
KR101997048B1 (ko) 물류 관리를 위한 원거리 다수의 코드 인식 방법 및 이를 이용한 코드 인식 장치
KR101034117B1 (ko) 영상에서 관심 영역 지정 및 윤곽선 영상을 이용한 객체 인식 방법 및 장치
JP2010205067A (ja) 領域抽出装置、領域抽出方法及び領域抽出プログラム
US20150131853A1 (en) Stereo matching system and method for generating disparity map using same
KR20150115774A (ko) 에지 선택 기능을 갖는 이미지 프로세서
KR101541384B1 (ko) 영상 인식 장치 및 방법
CN103049911A (zh) 轮廓检测稳定性判断方法及图像检索方法
CN106909916B (zh) 一种基于手机平台快速检测与识别人行道斑马线的方法
CN106406507B (zh) 图像处理方法以及电子设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160328

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170329

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee