KR20150000331A - 이미지 처리 방법 및 장치 - Google Patents

이미지 처리 방법 및 장치 Download PDF

Info

Publication number
KR20150000331A
KR20150000331A KR1020130072666A KR20130072666A KR20150000331A KR 20150000331 A KR20150000331 A KR 20150000331A KR 1020130072666 A KR1020130072666 A KR 1020130072666A KR 20130072666 A KR20130072666 A KR 20130072666A KR 20150000331 A KR20150000331 A KR 20150000331A
Authority
KR
South Korea
Prior art keywords
fragment
standard deviation
fragments
pixel
contour
Prior art date
Application number
KR1020130072666A
Other languages
English (en)
Other versions
KR101528906B1 (ko
Inventor
박시몽
이주헌
Original Assignee
주식회사 내비오닉스코리아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 내비오닉스코리아 filed Critical 주식회사 내비오닉스코리아
Priority to KR1020130072666A priority Critical patent/KR101528906B1/ko
Publication of KR20150000331A publication Critical patent/KR20150000331A/ko
Application granted granted Critical
Publication of KR101528906B1 publication Critical patent/KR101528906B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 이미지 처리 장치 및 방법에 관한 것으로, 본 발명에 따른 방법은 입력 받은 이미지 내부에 있는 대상체의 양 끝점을 기준으로 이미지를 상하로 나누는 단계, 상하로 나눈 이미지를 복수 개의 단편(slice)으로 각각 나누는 단계, 복수 개의 단편 각각에서 대상체의 윤곽선을 추출하는 단계, 그리고 윤곽선이 추출된 복수 개의 단편을 결합하는 단계를 포함한다. 본 발명에 의하면, 입력 받은 이미지 내부에 있는 대상체의 윤곽선을 보다 정확하게 추출할 수 있다.

Description

이미지 처리 방법 및 장치{Method and Apparatus for Processing Image}
본 발명은 이미지 처리 방법 및 장치에 관한 것으로, 보다 자세하게는 이미지에 있는 대상체 주변의 노이즈를 제거하여 대상체의 형태를 추출할 수 있는 이미지 처리 방법 및 장치에 관한 것이다.
최근에는 디지털 기기의 발달로 인하여 디지털 카메라 또는 핸드폰 등을 사용하여 언제 어디서나 쉽게 주변의 영상을 촬영할 수 있다. 이러한 디지털 카메라 또는 핸드폰 등과 같이 영상을 촬영할 수 있는 디지털 기기들은 그 내부에 영상을 촬영하기 위한 화상 센서를 구비하고 있다.
하지만, 화상 센서로 촬영된 영상 데이터에 노이즈가 포함될 경우, 촬영된 영상 데이터를 디스플레이하게 되면 영상을 정확하게 출력하지 못하게 된다. 또한, 물체나 대상을 식별하기 위해 가장 필요한 정보는 대상체의 형태에 대한 정보이나 영상 데이터에 노이즈가 포함될 경우, 노이즈의 영향으로 인해 대상체의 형태를 정확하게 파악하기 힘들게 된다.
이에 따라, 현재에는 노이즈를 보다 효과적으로 저감하여 영상 데이터에 있는 이미지를 정확하게 출력하기 위한 연구가 진행되고 있으며, 특히, 영상 데이터에 있는 대상체의 형태 이외의 주변 노이즈를 최소화하고, 대상체의 윤곽선을 추출하기 위한 연구가 이루어지고 있다.
그러나, 일반적인 환경에서 촬영된 영상 데이터의 경우, 대상체의 주변 영상 즉, 배경에는 노이즈가 항상 존재하고, 이러한 영상 데이터에서 대상체의 윤곽선을 추출할 경우, 배경에 있는 노이즈의 영향으로 인해 대상체의 형태를 제대로 파악하는 것이 거의 불가능하거나 상당히 힘든 문제점이 있었다.
KR 1996-0003296 A
따라서 본 발명이 해결하고자 하는 과제는 입력 받은 이미지 내부에 있는 대상체를 기준으로 이미지를 복수 개의 단편(slice)으로 나누고, 복수 개의 단편 각각에서 추출된 대상체의 윤곽선을 결합하여 대상체의 최종 윤곽선을 보다 정확하게 추출할 수 있는 이미지 처리 방법 및 장치를 제공하는 것이다.
상기한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 이미지 처리 방법은 입력 받은 이미지 내부에 있는 대상체의 양 끝점을 기준으로 상기 이미지를 상하로 나누는 단계, 상기 상하로 나눈 이미지를 복수 개의 단편(slice)으로 각각 나누는 단계, 상기 복수 개의 단편 각각에서 상기 대상체의 윤곽선을 추출하는 단계, 그리고 상기 윤곽선이 추출된 복수 개의 단편을 결합하는 단계를 포함한다.
상기 윤곽선이 추출된 복수 개의 단편을 결합하는 단계는 상기 윤곽선이 추출된 복수 개의 단편 각각에 대하여 표준편차를 산출하는 단계, 그리고 상기 산출된 표준편차를 이용하여 상기 복수 개의 단편을 결합하는 단계를 포함할 수 있다.
상기 산출된 표준편차를 이용하여 상기 복수 개의 단편을 결합하는 단계는 미리 정해진 허용표준편차보다 상기 표준편차가 작은 단편 중에서 상기 표준편차가 최소인 기준 단편을 선택하는 단계, 그리고 상기 선택된 기준 단편을 기준으로 상기 기준 단편의 양 측에 위치한 단편을 결합하여 결합 이미지를 생성하는 단계를 포함할 수 있다.
상기 선택된 기준 단편을 기준으로 상기 기준 단편의 양 측에 위치한 단편을 결합하여 결합 이미지를 생성하는 단계는 상기 기준 단편의 양 측에 위치한 단편의 표준편차가 상기 허용표준편차보다 작으면, 상기 기준 단편과 상기 표준편차가 상기 허용표준편차보다 작은 단편을 결합하여 상기 결합 이미지를 생성하는 단계를 포함할 수 있다.
상기 선택된 기준 단편을 기준으로 상기 기준 단편의 양 측에 위치한 단편을 결합하여 결합 이미지를 생성하는 단계는 상기 결합 이미지에 있는 각 단편에 대하여 가상의 윤곽선 정보를 계산하는 단계, 상기 각 단편에 있는 원래의 윤곽선 정보와 상기 가상의 윤곽선 정보를 비교하여 상기 원래의 윤곽선 정보와 상기 가상의 윤곽선 정보의 차이를 검출하는 단계, 그리고 상기 원래의 윤곽선 정보와 상기 가상의 윤곽선 정보의 차이가 미리 정해진 기준 차이보다 큰 경우, 상기 원래의 윤곽선 정보를 상기 가상의 윤곽선 정보로 대체하는 단계를 더 포함할 수 있다.
상기 선택된 기준 단편을 기준으로 상기 기준 단편의 양 측에 위치한 단편을 결합하여 결합 이미지를 생성하는 단계는 상기 기준 단편의 양 측에 위치한 단편의 표준편차가 상기 허용표준편차보다 작지 않으면, 상기 표준편차가 상기 허용표준편차보다 작지 않은 제1 단편에 대하여 가상의 윤곽선 정보를 계산하고, 상기 가상의 윤곽선 정보에 따라 상기 제1 단편의 윤곽선 정보를 수정하고, 상기 윤곽선 정보가 수정된 제1 단편과 상기 결합 이미지를 결합하는 단계를 포함할 수 있다.
상기 가상의 윤곽선 정보는 상기 결합 이미지에 있는 단편에 대한 윤곽선 정보 및 미리 설정된 다항식을 이용하여 계산될 수 있다.
상기 복수 개의 단편 각각에서 상기 대상체의 윤곽선을 추출하는 단계는 상기 단편을 이루고 있는 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고, 상기 검색된 픽셀의 변화점을 조합하여 상기 대상체의 윤곽선을 추출하는 단계를 포함할 수 있다.
상기 복수 개의 단편 각각에서 상기 대상체의 윤곽선을 추출하는 단계는 상기 단편을 이루고 있는 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고, 상기 픽셀의 변화점 및 상기 픽셀의 변화점의 양 측에 위치한 픽셀 라인에 있는 픽셀의 변화점 간의 거리와 미리 정해진 임계치를 비교하여 상기 스캔의 종료 시점을 결정하고, 상기 결정된 스캔의 종료 시점에 따라 상기 픽셀의 변화점을 추가적으로 검색하여 상기 대상체의 윤곽선을 추출하는 단계를 포함할 수 있다.
한편, 본 발명의 일 실시예에 따른 이미지 처리 장치는 입력 받은 이미지 내부에 있는 대상체의 양 끝점을 기준으로 상기 이미지를 상하로 나누고, 상기 상하로 나눈 이미지를 복수 개의 단편(slice)으로 각각 나누는 분할부, 상기 복수 개의 단편 각각에서 상기 대상체의 윤곽선을 추출하는 추출부, 그리고 상기 윤곽선이 추출된 복수 개의 단편을 결합하는 결합부를 포함한다.
상기 추출부는 상기 윤곽선이 추출된 복수 개의 단편 각각에 대하여 표준편차를 산출하고, 상기 산출된 표준편차를 이용하여 상기 복수 개의 단편을 결합할 수 있다.
상기 결합부는 미리 정해진 허용표준편차보다 상기 표준편차가 작은 단편 중에서 상기 표준편차가 최소인 기준 단편을 선택하고, 상기 선택된 기준 단편을 기준으로 상기 기준 단편의 양 측에 위치한 단편을 결합하여 결합 이미지를 생성할 수 있다.
상기 결합부는 상기 기준 단편의 양 측에 위치한 단편의 표준편차가 상기 허용표준편차보다 작으면, 상기 기준 단편과 상기 표준편차가 상기 허용표준편차보다 작은 단편을 결합하여 상기 결합 이미지를 생성할 수 있다.
상기 결합부는 상기 결합 이미지에 있는 각 단편에 대하여 가상의 윤곽선 정보를 계산하고, 상기 각 단편에 있는 원래의 윤곽선 정보와 상기 가상의 윤곽선 정보를 비교하여 상기 원래의 윤곽선 정보와 상기 가상의 윤곽선 정보의 차이를 검출하고, 상기 검출된 원래의 윤곽선 정보와 상기 가상의 윤곽선 정보의 차이가 미리 정해진 기준 차이보다 큰 경우, 상기 원래의 윤곽선 정보를 상기 가상의 윤곽선 정보로 대체할 수 있다.
상기 결합부는 상기 기준 단편의 양 측에 위치한 단편의 표준편차가 상기 허용표준편차보다 작지 않으면, 상기 표준편차가 상기 허용표준편차보다 작지 않은 제1 단편에 대하여 가상의 윤곽선 정보를 계산하고, 상기 가상의 윤곽선 정보에 따라 상기 제1 단편의 윤곽선 정보를 수정하고, 상기 윤곽선 정보가 수정된 제1 단편과 상기 결합 이미지를 결합할 수 있다.
상기 가상의 윤곽선 정보는 상기 결합 이미지에 있는 단편에 대한 윤곽선 정보 및 미리 설정된 다항식을 이용하여 계산될 수 있다.
상기 추출부는 상기 단편을 이루고 있는 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고, 상기 검색된 픽셀의 변화점을 조합하여 상기 대상체의 윤곽선을 추출할 수 있다.
상기 추출부는 상기 단편을 이루고 있는 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고, 상기 픽셀의 변화점 및 상기 픽셀의 변화점의 양 측에 위치한 픽셀 라인에 있는 픽셀의 변화점 간의 거리와 미리 정해진 임계치를 비교하여 상기 스캔의 종료 시점을 결정하고, 상기 결정된 스캔의 종료 시점에 따라 상기 픽셀의 변화점을 추가적으로 검색하여 상기 대상체의 윤곽선을 추출할 수 있다.
그리고, 컴퓨터에 상기 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체를 포함할 수 있다.
이와 같이 본 발명의 실시예에 따른 이미지 처리 방법 및 장치에 따르면, 입력 받은 이미지 내부에 있는 대상체를 기준으로 이미지를 복수 개의 단편으로 나누고, 복수 개의 단편 각각에서 추출된 대상체의 윤곽선을 결합하여 대상체의 최종 윤곽선을 보다 정확하게 추출할 수 있는 장점이 있다.
즉, 대상체의 주변에 있는 노이즈를 제거하여 대상체의 형태를 제대로 파악할 수 있는 장점이 있다.
도 1은 본 발명의 일 실시예에 따른 이미지 처리 장치의 구성도이다.
도 2는 입력 받은 이미지의 예이다.
도 3은 입력 받은 이미지에서 소벨 알고리즘을 이용하여 개략적으로 추출된 대상체의 윤곽선을 보여주는 예이다.
도 4는 복수 개의 단편으로 나누어진 상하 이미지의 예이다.
도 5는 상편에 있는 복수 개의 단편에서 추출된 대상체의 윤곽선을 보여주는 예이다.
도 6은 이미지를 Left 스캔한 Left 스위핑을 보여주는 예이다.
도 7은 이미지를 Top 스캔한 Top 스위핑을 보여주는 예이다.
도 8 및 도 9는 소벨 알고리즘이 수행된 이미지에서 대상체의 윤곽선을 추출하기 위한 Top 스위핑하는 과정을 보여주는 예이다.
도 10은 데이터 패턴을 이용한 스위핑을 보여주는 예이다.
도 11은 단순 스위핑 결과 간의 거리를 이용한 임계치 스위핑을 보여주는 예이다.
도 12 및 도 13은 본 발명의 일 실시예에 의한 8번 단편 내지 13번 단편에서 대상체의 윤곽선을 추출하는 과정을 보여주는 예이다.
도 14는 반복적인 윤곽선 추출 과정을 통해 추출된 대상체의 윤곽선을 보여주는 예이다.
도 15는 대상체의 주변에 있는 노이즈를 제거한 이미지를 보여주는 예이다.
도 16은 대상체의 최종 윤곽선을 보여주는 예이다.
도 17은 본 발명의 일 실시예에 따른 이미지 처리 과정을 보여주는 동작 흐름도이다.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 도면 중 일부는 표현이 명확할 수 있도록 반전 처리하여 도시하였다.
도 1은 본 발명의 일 실시예에 따른 이미지 처리 장치의 구성도, 도 2는 입력 받은 이미지의 예, 도 3은 입력 받은 이미지에서 소벨 알고리즘을 이용하여 개략적으로 추출된 대상체의 윤곽선을 보여주는 예, 도 4는 복수 개의 단편으로 나누어진 상하 이미지의 예 및 도 5는 상편에 있는 복수 개의 단편에서 추출된 대상체의 윤곽선을 보여주는 예를 나타낸다.
도 1에 도시한 바와 같이, 이미지 처리 장치(100)는 전처리부(110), 분할부(120), 추출부(130), 결합부(140) 및 후처리부(150)를 포함하여 구성된다.
전처리부(110)는 도 2에서와 같이, 디지털 카메라 또는 핸드폰 등을 포함한 디지털 기기에서 입력 받은 이미지에 대하여 전처리 동작을 수행할 수 있다. 즉, 전처리부(110)는 전처리 과정을 통해 입력 받은 이미지에 있는 노이즈를 저감시킬 수 있는데, 특히, 모션 블러(motion blur)를 제거하는 알고리즘 및 영상의 가장자리를 선명(sharpen)하게 하는 알고리즘을 이용하여 필요에 따라 이미지에 있는 노이즈를 전반적으로 줄일 수 있다.
또한, 전처리부(110)는 도 3에서와 같이, 전처리 과정에서 노이즈가 저감된 이미지에 있는 대상체의 윤곽선을 개략적으로 추출할 수 있다. 전처리부(110)는 전처리 과정 시 대상체의 윤곽선을 개략적으로 추출하기 위하여 소벨(Sobel) 알고리즘 또는 프리윗(Prewitt) 알고리즘 등을 사용할 수 있다. 소벨 알고리즘은 대상체(물체)와 배경의 경계로, 픽셀의 밝기가 급격하게 변하는 불연속점인 윤곽선(에지)을 추출할 수 있는 가장 대표적인 1차 미분 연산자로, 수직, 수평 또는 대각선과 같이 모든 방향에 있는 에지를 추출할 수 있으나, 그 중에서도 대각선 방향의 에지를 추출하는데 유리하며, 잡음에 대체적으로 강한 장점이 있다. 프리윗(Prewitt) 알고리즘은 대각선 방향보다는 수직 및 수평 방향의 에지를 추출하는데 주로 사용되고, 수행 속도가 빠른 장점이 있다. 상술한 전처리 과정은 설정된 조건에 따라 생략될 수 있음은 물론이다.
한편, 이미지에 나타나는 대상체는 하기의 조건을 만족시켜야 한다.
첫째, 대상체의 형태가 전부 이미지에 나타나야 하고, 둘째, 대상체는 이미지의 중심부에 위치하여야 한다. 셋째, 대상체의 양 끝점에 해당하는 부분이 가급적 이미지의 중심선에 있어야 한다. 이러한 대상체의 조건을 만족시키기 위하여 전처리 과정을 수행하는 도중이나 전처리 과정을 수행한 후, 이미지 내부에 있는 대상체의 위치를 조정하는 동작을 수행할 수 있다.
분할부(120)는 도 4에 도시한 바와 같이, 입력 받은 이미지 내부에 있는 대상체의 양 끝점을 기준으로 이미지를 상하로 나눌 수 있으며, 상하로 나눈 이미지를 복수 개의 단편(slice)으로 각각 나눌 수 있다. 여기서, 상하로 나눈 이미지를 각각 상편(top slice) 및 하편(bottom slice)이라고 하며, 상편 및 하편을 각각 동일한 수(예컨대, 도 4에서는 20개)의 단편으로 나눌 수 있다.
추출부(130)는 복수 개의 단편 각각에서 대상체의 윤곽선을 추출할 수 있는데, 보다 자세하게는 도 5에서와 같이, 상편을 이루고 있는 복수 개의 단편에서 대상체의 윤곽선을 추출한 후, 하편을 이루고 있는 복수 개의 단편에서 대상체의 윤곽선을 추출할 수 있다.
보다 구체적으로 설명하면, 추출부(130)는 단편을 이루고 있는 적어도 하나의 픽셀 라인(pixel line)을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고, 검색된 픽셀의 변화점을 조합하여 대상체의 윤곽선을 추출할 수 있다. 즉, 추출부(130)는 스위핑(Sweeping) 알고리즘을 이용하여 복수 개의 픽셀 라인 각각을 미리 정해진 방향에 따라 스캔함으로써 각 픽셀 라인에서 형상이나 색을 나타내는 픽셀(데이터)의 구분점을 찾아낼 수 있고, 이를 응용하여 대상체의 윤곽선(또는 명암의 밝기나 색의 전환점)을 추출할 수 있다.
이하에서는 대상체의 윤곽선을 추출하기 위해 사용하는 스위핑 알고리즘에 대하여 보다 상세하게 설명하도록 한다.
우선적으로, 스위핑 알고리즘은 1) 선형 스캔을 이용한 단순 스위핑(Simple Sweeping) 알고리즘, 2) 데이터 패턴을 이용한 스위핑(Pattern Sweeping) 알고리즘 및 3) 단순 스위핑 결과 간의 거리를 이용한 임계치 스위핑(Threshold Sweeping) 알고리즘 등으로 이루어질 수 있다.
이 중에서, 1) 선형 스캔을 이용한 단순 스위핑 알고리즘은 단편을 이루고 있는 복수 개의 픽셀 라인을 따라 선형 스캔이 진행되는 도중에 미리 정해진 조건을 만족하는 픽셀(데이터)이 발견되면, 스캔을 중지하거나 경우에 따라 행이나 열의 끝까지 계속 스캔을 수행할 수 있도록 하여 발견된 픽셀을 상술한 픽셀의 변화점으로 선택하는 알고리즘으로, 선형 스캔(linear scan)을 기본으로 하여 이루어질 수 있다.
선형 스캔은 복수 개의 픽셀 라인 각각을 선형적으로 스캔하는 것으로, 선형 스캔의 방향은 하나의 축에 대하여 양방향으로 이루어질 수 있다. 예를 들어, 이차원(2D) 이미지에서 선형 스캔은 네 개의 스캔 방향 즉, Top 스캔(위쪽에서 아래쪽 방향으로 스캔), Bottom 스캔(아래쪽에서 위쪽 방향으로 스캔), Right 스캔(오른쪽에서 왼쪽 방향으로 스캔) 및 Left 스캔(왼쪽에서 오른쪽 방향으로 스캔)을 포함하며, 스위핑 알고리즘은 스캔 방향에 따라 Top 스위핑, Bottom 스위핑, Right 스위핑 및 Left 스위핑으로 나눌 수 있다. 여기서, 선형 스캔은 특정한 데이터의 탐색, 데이터의 차이, 특정한 데이터의 범위나 집합에 포함된 값 등의 선택 조건에 따라 임의로 설정할 수 있으며, 선형 스캔의 종료 시점은 찾고자 하는 성질이나 용도에 따라 임의로 결정할 수 있음은 물론이다.
도 6은 이미지를 Left 스캔한 Left 스위핑을 보여주는 예 및 도 7은 이미지를 Top 스캔한 Top 스위핑을 보여주는 예를 나타낸다.
도 6을 참조하면, Left 스위핑 알고리즘은 12개의 픽셀 라인 각각을 왼쪽에서 오른쪽 방향으로 스캔하여 각 픽셀 라인에서 5 이상의 값을 가지는 픽셀이 있는지 검색하고, 선형 스캔이 진행되는 도중에 5 이상의 값을 가지는 픽셀이 발견되면, 그 행이나 열의 스캔을 중지하도록 하여 픽셀의 변화점을 추출할 수 있다. 도 7은 도 6과 같은 조건으로 12개의 픽셀 라인 각각을 위쪽에서 아래쪽 방향으로 스캔하여 각 픽셀 라인에서 5 이상의 값을 가지는 픽셀이 있는지 검색하고, 선형 스캔이 진행되는 도중에 5 이상의 값을 가지는 픽셀이 발견되면, 그 행이나 열의 스캔을 중지하도록 하여 픽셀의 변화점을 추출할 수 있다.
도 8 및 도 9는 소벨 알고리즘이 수행된 이미지에서 대상체의 윤곽선을 추출하기 위한 Top 스위핑하는 과정을 보여주는 예이다.
도 8에서와 같이, 소벨 알고리즘이 수행되어 대상체의 윤곽선이 개략적으로 추출된 이미지에서 Top 스위핑을 수행하면, 도 9에 도시한 대상체의 상부에 해당하는 윤곽선이 추출될 수 있다.
다음으로, 2) 데이터 패턴을 이용한 스위핑(Pattern Sweeping) 알고리즘은 두 개 이상의 특정한 정보에 대한 배열을 찾는 알고리즘으로, 예컨대, 흑백 이미지에서 ‘검정-하양-검정’과 같은 쌍을 찾는 것을 패턴 스캔이라고 한다.
도 10은 데이터 패턴을 이용한 스위핑을 보여주는 예로서, 도 6에 도시한 12개의 픽셀 라인으로 이루어진 이미지를 Left 패턴 스캔(왼쪽에서 오른쪽 방향으로 패턴 스캔)하여 각 픽셀 라인에서 ‘0-8’의 패턴이 있는지 검색하고, 패턴 스캔이 진행되는 도중에 ‘0-8’의 패턴이 발견되면, 발견하는 즉시 스캔을 중지하도록 하여 도 10에서와 같은 패턴 스위핑의 결과를 추출할 수 있다.
이와 같이, 추출부(130)는 선형 스캔을 이용한 단순 스위핑(Simple Sweeping) 알고리즘이나 데이터 패턴을 이용한 스위핑(Pattern Sweeping) 알고리즘을 이용하여 복수 개의 픽셀 라인 각각에서 미리 정해진 조건을 만족하는 픽셀이 있는지 검색하고, 검색된 픽셀을 결합하여 대상체의 윤곽선을 추출할 수 있는 것이다.
또한, 추출부(130)는 단편을 이루고 있는 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고, 픽셀의 변화점 및 픽셀의 변화점의 양 측에 위치한 픽셀 라인에 있는 픽셀의 변화점 간의 거리와 미리 정해진 임계치를 비교하여 스캔의 종료 시점을 결정하고, 결정된 스캔의 종료 시점에 따라 픽셀의 변화점을 추가적으로 검색하여 대상체의 윤곽선을 추출할 수 있다.
보다 상세하게 설명하면, 추출부(130)는 단순 스위핑 결과 간의 거리를 이용한 임계치 스위핑(Threshold Sweeping) 알고리즘(이하, ‘임계치 스위핑 알고리즘’이라고 함)을 사용하여 대상체의 윤곽선을 추출할 수 있는데, 여기서, 임계치 스위핑 알고리즘은 선형 스캔을 이용한 단순 스위핑의 수행 결과를 이용하여 각 픽셀 라인에서 선형 스캔을 종료할지 여부를 결정하는 알고리즘이다.
도 11은 단순 스위핑 결과 간의 거리를 이용한 임계치 스위핑을 보여주는 예이다.
도 11을 참조하면, 여러 개의 스캔 라인(픽셀 라인)이 있고, 스캔 라인 ‘n’, 스캔 라인 ‘n-1’ 및 스캔 라인 ‘n+1’에서 찾아낸 픽셀의 변화점을 S(n), S(n-1) 및 S(n+1)이라고 각각 가정하면, S(n)과 S(n-1) 간의 거리를 ㅿn(n-1)로 나타내고, S(n)과 S(n+1) 간의 거리를 ㅿn(n+1)으로 나타낼 수 있다. 만약, ㅿn(n-1)과 ㅿn(n+1)이 모두 미리 설정된 임계치(Dmax)보다 크면, 스캔 라인 ‘n’에서의 스캔을 계속 진행하여 픽셀의 변화점을 계속 추출하고, ㅿn(n-1)과 ㅿn(n+1)이 모두 임계치(Dmax)보다 크지 않으면, 스캔 라인 ‘n’에서의 스캔을 종료하여 픽셀의 변화점을 추출하는 동작을 중단할 수 있다. 또한, ㅿn(n-1)과 ㅿn(n+1) 중에서 어느 하나의 거리만 임계치(Dmax)보다 크면, 스캔 라인 ‘n’에서의 스캔은 일시 종료 상태가 되며, 다른 스캔 라인에서의 스캔은 계속 진행될 수 있다.
그리고, 전체 스캔 라인에 대한 스캔이 완료되면, 일시 종료된 스캔 라인이 있는지 여부를 판단하고, 있으면 일시 종료 상태의 스캔 라인을 기준으로 임계치(Dmax)보다 작은 거리에 있는 스캔 라인 쪽으로 다음 일시 종료 상태의 스캔 라인까지 스캔 라인을 그룹화할 수 있다. 예를 들어, ㅿn(n-1)이 임계치(Dmax)보다 크고, ㅿn(n+1), ㅿn+1(n+2) 및 ㅿn+2(n+3)은 임계치(Dmax)보다 작고, ㅿn+3(n+4)이 임계치(Dmax)보다 크다면, n 및 (n+3)번째 스캔 라인은 일시 종료 상태의 스캔 라인이고, 따라서 n 내지 (n+3)번째 스캔 라인은 하나의 그룹으로 묶일 수 있으며, 이 스캔 라인 그룹 전후의 스캔 라인들에 대하여 동떨어져 있게 된다.
이렇게 그룹화된 스캔 라인 중 라인 수가 미리 정해져 있는 라인 수보다 작은 스캔 라인 그룹의 경우 이 그룹에 포함되어 있는 스캔 라인을 더 스캔하여 다음 픽셀 변화점을 찾는다. 라인 수가 미리 정해져 있는 라인 수보다 큰 스캔 라인 그룹의 경우에는 일시 종료 상태를 해제하고 스캔을 종료할 수 있다.
이와 같이, 추출부(130)는 단순 스위핑 결과 간의 거리를 이용한 임계치 스위핑 알고리즘을 사용하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고, 픽셀의 변화점 및 픽셀의 변화점의 양 측에 위치한 픽셀 라인에 있는 픽셀의 변화점 간의 거리와 미리 정해진 임계치를 비교하여 스캔의 종료 시점을 결정하고, 결정된 스캔의 종료 시점에 따라 픽셀의 변화점을 추가적으로 검색하여 대상체의 윤곽선을 추출할 수 있다.
결합부(140)는 윤곽선이 추출된 복수 개의 단편을 결합할 수 있는데, 보다 구체적으로는 윤곽선이 추출된 복수 개의 단편 각각에 대하여 표준편차를 산출하고, 산출된 표준편차를 이용하여 복수 개의 단편을 결합할 수 있다. 즉, 결합부(140)는 각 단편에 있는 윤곽선 정보의 표준편차를 산출하고, 윤곽선 정보의 표준편차를 이용하여 복수 개의 단편을 결합할 수 있는데, 여기서, 윤곽선 정보는 단편에 있는 중심선으로부터 윤곽선까지의 직선 거리를 나타내거나 (X, Y)에 대한 좌표 정보로 나타낼 수 있다.
결합부(140)는 각 단편에 있는 윤곽선 정보에 대한 표준편차를 산출하기 위하여 각 단편에 있는 윤곽선 정보의 평균인 윤곽선의 평균 정보를 우선적으로 산출하고, 각 단편에 있는 윤곽선의 정보가 윤곽선의 평균 정보로부터 떨어져 있는 거리를 구하여 표준편차를 산출함으로써 이를 기반으로 복수 개의 단편을 결합할 수 있다.
보다 자세하게 설명하면, 결합부(140)는 미리 정해진 허용표준편차보다 표준편차가 작은 단편 중에서 표준편차가 최소인 기준 단편을 선택하고, 선택된 기준 단편을 기준으로 기준 단편의 양 측에 위치한 단편들을 차례로 결합해 나감으로써 결합 이미지를 생성할 수 있다. 허용표준편차는 최대로 허용 가능한 표준편차로, 결합부(140)는 표준편차가 허용표준편차보다 작은 단편 중에서 표준편차가 가장 작은 기준 단편을 선택할 수 있고, 선택된 기준 단편의 양 측에 허용표준편차보다 표준편차가 작은 단편이 있으면, 기준 단편과 해당 단편을 하나의 단편으로 결합하여 결합 이미지를 생성할 수 있다. 여기서, 적합한 단편이 하나도 없거나 정해진 표준편차 이내의 단편의 수가 어느 한도를 미치지 못할 때에는 주어진 이미지를 거부 또는 실패로 간주할 수 있다.
또한, 결합부(140)는 결합 이미지에 포함된 각 단편에 대하여 커브 피팅(curve-fitting)을 수행하여 가상의 윤곽선 정보를 계산하고, 각 단편에 있는 원래의 윤곽선 정보와 가상의 윤곽선 정보를 비교하여 원래의 윤곽선 정보와 가상의 윤곽선 정보의 차이를 검출할 수 있다. 그리고, 결합부(140)는 원래의 윤곽선 정보와 가상의 윤곽선 정보의 차이가 미리 정해진 기준 차이보다 작거나 같은 구간에 대해서는 원래의 윤곽선 정보를 그대로 사용하고, 검출된 원래의 윤곽선 정보와 가상의 윤곽선 정보의 차이가 미리 정해진 기준 차이보다 큰 구간에 대해서는 그 구간에 해당되는 원래의 윤곽선 정보를 가상의 윤곽선 정보로 대체할 수 있다. 즉, 결합부(140)는 각 단편에서 추출된 원래의 윤곽선 정보 중에서 노이즈로 판단되는 원래의 윤곽선 정보에 대해서는 가상의 윤곽선 정보로 대체하여 노이즈를 제거할 수 있다.
한편, 결합부(140)는 기준 단편의 양 측에 위치한 단편의 표준편차가 허용표준편차보다 작지 않으면, 표준편차가 허용표준편차보다 작지 않은 제1 단편에 대하여 가상의 윤곽선 정보를 계산하고, 가상의 윤곽선 정보에 따라 제1 단편의 윤곽선 정보를 수정하고, 윤곽선 정보가 수정된 제1 단편과 결합 이미지를 결합할 수 있다. 여기서, 가상의 윤곽선 정보는 결합 이미지에 있는 단편에 대한 윤곽선 정보 및 미리 설정된 다항식을 이용하여 계산될 수 있다.
보다 상세하게 설명하면, 결합부(140)는 기준 단편과 인접하게 위치한 단편 중에서 허용표준편차보다 표준편차가 작은 단편이 없는 경우, 이전에 합쳐진 결합 이미지에 있는 윤곽선 정보를 기준으로 다항식을 검출하고, 검출된 다항식을 이용하여 허용표준편차보다 표준편차가 큰 제1 단편에 대하여 커브 피팅(curve-fitting)을 수행할 수 있다. 여기서, 커브 피팅은 주어진 데이터 집합에 함수를 맞추는 과정 중의 하나로, 선형 함수, 다항식 함수나 지수 함수 등을 사용하여 수행할 수 있다. 즉, 커브 피팅은 데이터를 근사적으로 나타낼 때는 주어진 데이터 사이의 값을 추정할 때 많이 사용되며, 다항식을 이용하여 데이터 집합을 커브 피팅하는 경우, 다항식이 데이터들을 모두 통과하거나 데이터들이 모두 통과하지 않고 전체적으로 데이터를 근사적으로 잘 나타내도록 커브 피팅할 수 있다.
도 12 및 도 13은 본 발명의 일 실시예에 의한 8번 단편 내지 13번 단편에서 대상체의 윤곽선을 추출하는 과정을 보여주는 예이다.
도 12를 참조하여 예를 들어 설명하면, 허용표준편차를 15라고 가정하고, 8번에서 13번까지의 단편들을 보면, 8번 단편의 표준편차는 33.5, 9번 단편은 26.3, 10번은 14.8, 11번은 8.6, 12번은 12, 13번은 5.1로 산출될 수 있다. 이러한 경우, 13번 단편은 표준편차가 5.1인 기준 단편으로, 최고의 신뢰도를 가지게 되고, 10번 내지 12번 단편의 표준편차가 허용표준편차보다 작으므로 13번 단편은 10번부터 12번 단편들과 결합되어 결합 이미지를 생성하게 된다. 그리고, 10번부터 13번 단편까지의 윤곽선 정보는 그대로 사용하게 된다.
하지만, 합쳐진 단편들인 결합 이미지에 이웃한 9번 단편은 허용표준편차인 15를 초과하므로 9번 단편의 윤곽선 정보는 삭제되고 대신에 10, 11, 12, 13번 단편의 윤곽선 정보를 기준으로 커브 피팅을 수행하여 다항식을 검출하고, 검출된 다항식을 이용하여 9번 단편에 상응되는 가상의 윤곽선 정보를 계산하고 합쳐지게 된다. 그리고 8번 단편 역시 같은 방법으로 합쳐지게 된다. 이러한 예에 대한 결과는 도 13에 나타나 있으며, 10번에서 13번까지의 단편에는 원래의 데이터인 윤곽선 정보가 사용되었으나, 8번과 9번의 단편은 다항식을 이용한 가상의 윤곽선 정보로 수정되어 있는 것을 알 수 있다.
도 14는 반복적인 윤곽선 추출 과정을 통해 추출된 대상체의 윤곽선을 보여주는 예로, 합쳐진 단편을 기준으로 다시 단편을 결합하는 과정을 반복하여 도 14와 같은 대상체의 윤곽선을 추출할 수 있다. 만약, 이웃한 단편 중 허용표준편차 미만의 단편이 없는 경우, 또 다시 커브 피팅(Curve-fitting) 과정을 반복하고 합쳐진 단편을 기준으로 다시 결합(Merge) 과정을 반복하는데, 이러한 반복은 모든 단편들이 하나로 합쳐질 때까지 수행될 수 있다.
후처리부(150)는 윤곽선이 추출된 대상체의 이미지에 대하여 후처리 동작을 수행할 수 있는데, 보다 상세하게는 상편에 사용된 스위핑 이미지에서 윤곽선 추출의 결과 선을 중심으로 상하 일정 간격 이상의 점들을 지울 수 있다(Band-pass Filtering). 그리고, 후처리부(150)는 추출부(130)에서 필터링된 이미지를 가지고 상술한 윤곽선을 추출하는 동작을 다시 반복하도록 할 수 있다. 이때, 반복하는 횟수나 밴드 패스(band-pass)에서 사용되는 간격 등은 사용되는 이미지의 상태나 찾고자 하는 대상체의 특징에 따라 필요에 맞게 조정할 수 있다.
도 15는 대상체의 주변에 있는 노이즈를 제거한 이미지를 보여주는 예 및 도 16은 대상체의 최종 윤곽선을 보여주는 예로, 후처리부(150)는 도 15와 같이, 상편과 하편의 윤곽선을 기준으로 초기에 사용되었던 윤곽선의 추출 이미지에서 바깥쪽, 즉, 대상체 외부에 해당하는 부분을 지울 수 있다(Noise Removal).
또한, 후처리부(150)는 추출부(130)에서 노이즈를 제거한 윤곽선 이미지를 기준으로 다시 윤곽선의 추출 동작을 적용하도록 할 수 있다. 이때, 필요에 따라 상술한 과정을 전체적이나 부분적으로 반복할 수 있으며, 다른 알고리즘을 적용하여 도 16과 같은 최종 윤곽선을 추출하는 것도 가능하다. 여기서, 최종 윤곽선은 사용 이미지에 따라 완전히 닫혀있는 예컨대, 모든 테두리가 연결되어 있는 윤곽선인 경우도 있겠지만 대부분 부분적으로 테두리가 연결되지 않고 열려 있게 된다. 이때, 원하는 용도에 따라 열려 있는 윤곽선을 닫아야 할 경우, 이를 위한 알고리즘은 노이즈 제거와는 다른 것이며 커브 피팅이나 다른 알고리즘을 사용할 수 있다.
하기에서는 본 발명의 일 실시예에 의한 영상 처리 과정에 대하여 설명하도록 한다.
도 17은 본 발명의 일 실시예에 따른 이미지 처리 과정을 보여주는 동작 흐름도를 나타낸다.
도 17에 도시한 바와 같이, 입력 받은 이미지 내부에 있는 대상체의 양 끝점을 기준으로 이미지를 상하로 나누고(S210), 상하로 나눈 이미지를 복수 개의 단편(slice)으로 각각 나눈다(S220). 여기서, 상하로 나눈 이미지를 각각 상편(top slice) 및 하편(bottom slice)이라고 하며, 상편 및 하편을 각각 동일한 수의 단편으로 나눌 수 있다.
이와 같이, 이미지를 상하로 나누기 전에 디지털 카메라 또는 핸드폰 등을 포함한 디지털 기기에서 입력 받은 이미지에 대하여 전처리 동작을 수행할 수 있다. 즉, 전처리 과정을 통해 입력 받은 이미지에 있는 노이즈를 저감시킬 수 있는데, 특히, 모션 블러(motion blur)를 제거하는 알고리즘 및 영상의 가장자리를 선명(sharpen)하게 하는 알고리즘을 이용하여 필요에 따라 이미지에 있는 노이즈를 전반적으로 줄일 수 있다.
또한, 전처리 과정에서 노이즈가 저감된 이미지에 있는 대상체의 윤곽선을 개략적으로 추출할 수 있다. 즉, 소벨(Sobel) 알고리즘 또는 프리윗(Prewitt) 알고리즘 등을 사용하여 전처리 과정 시 대상체의 윤곽선을 개략적으로 추출할 수 있다. 소벨 알고리즘은 대상체(물체)와 배경의 경계로, 픽셀의 밝기가 급격하게 변하는 불연속점인 윤곽선(에지)를 추출할 수 있는 가장 대표적인 1차 미분 연산자로, 수직, 수평 또는 대각선과 같이 모든 방향에 있는 에지를 추출할 수 있으나, 그 중에서도 대각선 방향의 에지를 추출하는데 유리하며, 잡음에 대체적으로 강한 장점이 있다. 프리윗(Prewitt) 알고리즘은 대각선 방향보다는 수직 및 수평 방향의 에지를 추출하는데 주로 사용되고, 수행 속도가 빠른 장점이 있다. 상술한 전처리 과정은 설정된 조건에 따라 생략될 수 있음은 물론이다.
한편, 이미지에 나타나는 대상체는 하기의 조건을 만족시켜야 한다.
첫째, 대상체의 형태가 전부 이미지에 나타나야 하고, 둘째, 대상체는 이미지의 중심부에 위치하여야 한다. 셋째, 대상체의 양 끝점에 해당하는 부분이 가급적 이미지의 중심선에 있어야 한다. 이러한 대상체의 조건을 만족시키기 위하여 전처리 과정을 수행하는 도중이나 전처리 과정을 수행한 후, 이미지 내부에 있는 대상체의 위치를 조정하는 동작을 수행할 수 있다.
그리고, 복수 개의 단편 각각에서 대상체의 윤곽선을 추출한다(S230). 즉, 상편을 이루고 있는 복수 개의 단편에서 대상체의 윤곽선을 추출한 후, 하편을 이루고 있는 복수 개의 단편에서 대상체의 윤곽선을 추출할 수 있다.
보다 구체적으로 설명하면, 단편을 이루고 있는 적어도 하나의 픽셀 라인(pixel line)을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고, 검색된 픽셀의 변화점을 조합하여 대상체의 윤곽선을 추출할 수 있다. 즉, 추출부(130)는 스위핑(sweeping) 알고리즘을 사용하여 복수 개의 픽셀 라인 각각을 미리 정해진 방향에 따라 스캔함으로써 각 픽셀 라인에서 형상이나 색을 나타내는 픽셀(데이터)의 구분점을 찾아낼 수 있고, 이를 응용하여 대상체의 윤곽선(또는 명암의 밝기나 색의 전환점)을 추출할 수 있다.
또한, 단편을 이루고 있는 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고, 픽셀의 변화점 및 픽셀의 변화점의 양 측에 위치한 픽셀 라인에 있는 픽셀의 변화점 간의 거리와 미리 정해진 임계치를 비교하여 스캔의 종료 시점을 결정하고, 결정된 스캔의 종료 시점에 따라 픽셀의 변화점을 추가적으로 검색하여 대상체의 윤곽선을 추출할 수 있다. 즉, 단순 스위핑 결과 간의 거리를 이용한 임계치 스위핑(Threshold Sweeping) 알고리즘을 사용하여 대상체의 윤곽선을 추출할 수 있다.
그런 다음, 윤곽선이 추출된 복수 개의 단편을 결합한다(S240).
보다 구체적으로는 윤곽선이 추출된 복수 개의 단편 각각에 대하여 표준편차를 산출하고, 산출된 표준편차를 이용하여 복수 개의 단편을 결합할 수 있다. 즉, 각 단편에 있는 윤곽선 정보의 표준편차를 산출하고, 산출된 윤곽선 정보의 표준편차를 이용하여 복수 개의 단편을 결합할 수 있는데, 여기서, 윤곽선 정보는 단편에 있는 중심선으로부터 윤곽선까지의 직선 거리를 나타내거나 (X, Y)에 대한 좌표 정보로 나타낼 수 있다.
그리고, 각 단편의 윤곽선 정보에 대한 표준편차를 산출하기 위하여 각 단편에 있는 윤곽선 정보의 평균인 윤곽선의 평균 정보를 우선적으로 산출하고, 각 단편에 있는 윤곽선의 정보가 윤곽선의 평균 정보로부터 떨어져 있는 거리를 구하여 표준편차를 산출하고, 이를 기반으로 하여 복수 개의 단편을 결합할 수 있다.
보다 자세하게 설명하면, 미리 정해진 허용표준편차보다 표준편차가 작은 단편 중에서 표준편차가 최소인 기준 단편을 선택하고, 선택된 기준 단편을 기준으로 기준 단편의 양 측에 위치한 단편을 결합하여 결합 이미지를 생성할 수 있다. 허용표준편차는 최대로 허용 가능한 표준편차로, 표준편차가 허용표준편차보다 작은 단편 중에서 표준편차가 가장 작은 기준 단편을 선택할 수 있고, 선택된 기준 단편의 양 측에 허용표준편차보다 표준편차가 작은 단편이 있으면, 기준 단편과 해당 단편을 하나의 단편으로 결합하여 결합 이미지를 생성할 수 있다. 여기서, 적합한 단편이 하나도 없거나 정해진 표준편차 이내의 단편의 수가 어느 한도를 미치지 못할 때에는 주어진 이미지를 거부 또는 실패로 간주할 수 있다.
또한, 결합 이미지에 있는 각 단편에 대하여 커브 피팅(curve-fitting)을 수행하여 가상의 윤곽선 정보를 계산하고, 각 단편에 있는 원래의 윤곽선 정보와 가상의 윤곽선 정보를 비교하여 원래의 윤곽선 정보와 가상의 윤곽선 정보의 차이를 검출할 수 있다. 그리고, 원래의 윤곽선 정보와 가상의 윤곽선 정보의 차이가 미리 정해진 기준 차이보다 작거나 같은 구간에 대해서는 원래의 윤곽선 정보를 그대로 사용하고, 검출된 원래의 윤곽선 정보와 가상의 윤곽선 정보의 차이가 미리 정해진 기준 차이보다 큰 구간에 대해서는 그 구간에 해당되는 원래의 윤곽선 정보를 가상의 윤곽선 정보로 대체할 수 있다. 즉, 각 단편에서 추출된 원래의 윤곽선 정보 중에서 노이즈로 판단되는 원래의 윤곽선 정보에 대해서는 가상의 윤곽선 정보로 대체하여 노이즈를 제거할 수 있다.
그리고, 기준 단편의 양 측에 위치한 단편의 표준편차가 허용표준편차보다 작지 않으면, 표준편차가 허용표준편차보다 작지 않은 제1 단편에 대하여 가상의 윤곽선 정보를 계산하고, 가상의 윤곽선 정보에 따라 제1 단편의 윤곽선 정보를 수정하고, 윤곽선 정보가 수정된 제1 단편과 결합 이미지를 결합할 수 있다. 여기서, 가상의 윤곽선 정보는 결합 이미지에 있는 단편에 대한 윤곽선 정보 및 미리 설정된 다항식을 이용하여 계산될 수 있다.
보다 상세하게 설명하면, 기준 단편과 인접하게 위치한 단편 중에서 허용표준편차보다 표준편차가 작은 단편이 없는 경우, 이전에 합쳐진 결합 이미지에 있는 윤곽선 정보를 기준으로 다항식을 검출하고, 검출된 다항식을 이용하여 허용표준편차보다 표준편차가 큰 제1 단편에 대하여 커브 피팅(curve-fitting)을 수행할 수 있다. 여기서, 커브 피팅은 주어진 데이터 집합에 함수를 맞추는 과정 중의 하나로, 선형 함수, 다항식 함수나 지수 함수 등을 사용하여 커브 피팅을 수행할 수 있다. 즉, 커브 피팅은 데이터를 근사적으로 나타낼 때는 주어진 데이터 사이의 값을 추정할 때 많이 사용되며, 다항식을 이용하여 데이터 집합을 커브 피팅하는 경우, 다항식이 데이터들을 모두 통과하거나 데이터들이 모두 통과하지 않고 전체적으로 데이터를 근사적으로 잘 나타내도록 커브 피팅할 수 있다.
또한, 커브 피팅이란 평면 위에 흩어진 점에 대하여 그들에게 알맞는 곡선을 계산하고 산출하는 것으로, 예를 들어, 어떤 파형을 표본화(sampling) 하고 데이터를 얻는 것을 말한다. 이 표본화한 데이터에 대하여 원래 파형 곡선의 함수(function)를 계산하고 적당한 것 등을 표시할 수 있으며, 함수와 각 측정 값과의 제곱오차합을 구하고, 그것이 최소가 되도록 각 변수에 계수를 부여해 나가는 방법으로, 이 방법에 의하여 측정된 각 점으로부터 곡선의 편차를 최소로 할 수 있다.
이후, 윤곽선이 추출된 대상체의 이미지에 대하여 후처리 동작을 수행할 수 있는데, 보다 상세하게는 윤곽선이 추출된 대상체의 이미지에 대하여 노이즈를 제거함으로써 대상체의 최종 윤곽선을 추출하는 동작을 수행할 수 있다.
본 발명의 실시예는 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터로 읽을 수 있는 매체를 포함한다. 이 매체는 앞서 설명한 이미지 처리 방법을 실행시키기 위한 프로그램을 기록한다. 이 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 이러한 매체의 예에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 자기 매체, CD 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 자기-광 매체, 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치 등이 있다. 또는 이러한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
100: 이미지 처리 장치
110: 전처리부
120: 분할부
130: 추출부
140: 결합부
150: 후처리부

Claims (19)

  1. 입력 받은 이미지 내부에 있는 대상체의 양 끝점을 기준으로 상기 이미지를 상하로 나누는 단계,
    상기 상하로 나눈 이미지를 복수 개의 단편(slice)으로 각각 나누는 단계,
    상기 복수 개의 단편 각각에서 상기 대상체의 윤곽선을 추출하는 단계, 그리고
    상기 윤곽선이 추출된 복수 개의 단편을 결합하는 단계
    를 포함하는 이미지 처리 방법.
  2. 제 1 항에서,
    상기 윤곽선이 추출된 복수 개의 단편을 결합하는 단계는,
    상기 윤곽선이 추출된 복수 개의 단편 각각에 대하여 표준편차를 산출하는 단계, 그리고
    상기 산출된 표준편차를 이용하여 상기 복수 개의 단편을 결합하는 단계를 포함하는 이미지 처리 방법.
  3. 제 2 항에서,
    상기 산출된 표준편차를 이용하여 상기 복수 개의 단편을 결합하는 단계는,
    미리 정해진 허용표준편차보다 상기 표준편차가 작은 단편 중에서 상기 표준편차가 최소인 기준 단편을 선택하는 단계, 그리고
    상기 선택된 기준 단편을 기준으로 상기 기준 단편의 양 측에 위치한 단편을 결합하여 결합 이미지를 생성하는 단계를 포함하는 이미지 처리 방법.
  4. 제 3 항에서,
    상기 선택된 기준 단편을 기준으로 상기 기준 단편의 양 측에 위치한 단편을 결합하여 결합 이미지를 생성하는 단계는,
    상기 기준 단편의 양 측에 위치한 단편의 표준편차가 상기 허용표준편차보다 작으면, 상기 기준 단편과 상기 표준편차가 상기 허용표준편차보다 작은 단편을 결합하여 상기 결합 이미지를 생성하는 단계를 포함하는 이미지 처리 방법.
  5. 제 4 항에서,
    상기 선택된 기준 단편을 기준으로 상기 기준 단편의 양 측에 위치한 단편을 결합하여 상기 결합 이미지를 생성하는 단계는,
    상기 결합 이미지에 있는 각 단편에 대하여 가상의 윤곽선 정보를 계산하는 단계,
    상기 각 단편에 있는 원래의 윤곽선 정보와 상기 가상의 윤곽선 정보를 비교하여 상기 원래의 윤곽선 정보와 상기 가상의 윤곽선 정보의 차이를 검출하는 단계, 그리고
    상기 원래의 윤곽선 정보와 상기 가상의 윤곽선 정보의 차이가 미리 정해진 기준 차이보다 큰 경우, 상기 원래의 윤곽선 정보를 상기 가상의 윤곽선 정보로 대체하는 단계를 더 포함하는 이미지 처리 방법.
  6. 제 3 항에서,
    상기 선택된 기준 단편을 기준으로 상기 기준 단편의 양 측에 위치한 단편을 결합하여 결합 이미지를 생성하는 단계는,
    상기 기준 단편의 양 측에 위치한 단편의 표준편차가 상기 허용표준편차보다 작지 않으면, 상기 표준편차가 상기 허용표준편차보다 작지 않은 제1 단편에 대하여 가상의 윤곽선 정보를 계산하고,
    상기 가상의 윤곽선 정보에 따라 상기 제1 단편의 윤곽선 정보를 수정하고,
    상기 윤곽선 정보가 수정된 제1 단편과 상기 결합 이미지를 결합하는 단계를 포함하는 이미지 처리 방법.
  7. 제 6 항에서,
    상기 가상의 윤곽선 정보는,
    상기 결합 이미지에 있는 단편에 대한 윤곽선 정보 및 미리 설정된 다항식을 이용하여 계산되는 이미지 처리 방법.
  8. 제 1 항에서,
    상기 복수 개의 단편 각각에서 상기 대상체의 윤곽선을 추출하는 단계는,
    상기 단편을 이루고 있는 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고,
    상기 검색된 픽셀의 변화점을 조합하여 상기 대상체의 윤곽선을 추출하는 단계를 포함하는 이미지 처리 방법.
  9. 제 1 항에서,
    상기 복수 개의 단편 각각에서 상기 대상체의 윤곽선을 추출하는 단계는,
    상기 단편을 이루고 있는 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고,
    상기 픽셀의 변화점 및 상기 픽셀의 변화점의 양 측에 위치한 픽셀 라인에 있는 픽셀의 변화점 간의 거리와 미리 정해진 임계치를 비교하여 상기 스캔의 종료 시점을 결정하고,
    상기 결정된 스캔의 종료 시점에 따라 상기 픽셀의 변화점을 추가적으로 검색하여 상기 대상체의 윤곽선을 추출하는 단계를 포함하는 이미지 처리 방법.
  10. 입력 받은 이미지 내부에 있는 대상체의 양 끝점을 기준으로 상기 이미지를 상하로 나누고, 상기 상하로 나눈 이미지를 복수 개의 단편(slice)으로 각각 나누는 분할부,
    상기 복수 개의 단편 각각에서 상기 대상체의 윤곽선을 추출하는 추출부, 그리고
    상기 윤곽선이 추출된 복수 개의 단편을 결합하는 결합부
    를 포함하는 이미지 처리 장치.
  11. 제 10 항에서,
    상기 추출부는,
    상기 윤곽선이 추출된 복수 개의 단편 각각에 대하여 표준편차를 산출하고,
    상기 산출된 표준편차를 이용하여 상기 복수 개의 단편을 결합하는 이미지 처리 장치.
  12. 제 11 항에서,
    상기 결합부는,
    미리 정해진 허용표준편차보다 상기 표준편차가 작은 단편 중에서 상기 표준편차가 최소인 기준 단편을 선택하고,
    상기 선택된 기준 단편을 기준으로 상기 기준 단편의 양 측에 위치한 단편을 결합하여 결합 이미지를 생성하는 이미지 처리 장치.
  13. 제 12 항에서,
    상기 결합부는,
    상기 기준 단편의 양 측에 위치한 단편의 표준편차가 상기 허용표준편차보다 작으면, 상기 기준 단편과 상기 표준편차가 상기 허용표준편차보다 작은 단편을 결합하여 상기 결합 이미지를 생성하는 이미지 처리 장치.
  14. 제 13 항에서,
    상기 결합부는,
    상기 결합 이미지에 있는 각 단편에 대하여 가상의 윤곽선 정보를 계산하고,
    상기 각 단편에 있는 원래의 윤곽선 정보와 상기 가상의 윤곽선 정보를 비교하여 상기 원래의 윤곽선 정보와 상기 가상의 윤곽선 정보의 차이를 검출하고,
    상기 검출된 원래의 윤곽선 정보와 상기 가상의 윤곽선 정보의 차이가 미리 정해진 기준 차이보다 큰 경우, 상기 원래의 윤곽선 정보를 상기 가상의 윤곽선 정보로 대체하는 이미지 처리 방법.
  15. 제 12 항에서,
    상기 결합부는,
    상기 기준 단편의 양 측에 위치한 단편의 표준편차가 상기 허용표준편차보다 작지 않으면, 상기 표준편차가 상기 허용표준편차보다 작지 않은 제1 단편에 대하여 가상의 윤곽선 정보를 계산하고,
    상기 가상의 윤곽선 정보에 따라 상기 제1 단편의 윤곽선 정보를 수정하고,
    상기 윤곽선 정보가 수정된 제1 단편과 상기 결합 이미지를 결합하는 이미지 처리 장치.
  16. 제 15 항에서,
    상기 가상의 윤곽선 정보는,
    상기 결합 이미지에 있는 단편에 대한 윤곽선 정보 및 미리 설정된 다항식을 이용하여 계산되는 이미지 처리 장치.
  17. 제 10 항에서,
    상기 추출부는,
    상기 단편을 이루고 있는 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고,
    상기 검색된 픽셀의 변화점을 조합하여 상기 대상체의 윤곽선을 추출하는 이미지 처리 장치.
  18. 제 10 항에서,
    상기 추출부는,
    상기 단편을 이루고 있는 적어도 하나의 픽셀 라인을 미리 정해진 방향에 따라 스캔하여 각 픽셀 라인마다 픽셀의 변화점을 검색하고,
    상기 픽셀의 변화점 및 상기 픽셀의 변화점의 양 측에 위치한 픽셀 라인에 있는 픽셀의 변화점 간의 거리와 미리 정해진 임계치를 비교하여 상기 스캔의 종료 시점을 결정하고,
    상기 결정된 스캔의 종료 시점에 따라 상기 픽셀의 변화점을 추가적으로 검색하여 상기 대상체의 윤곽선을 추출하는 이미지 처리 장치.
  19. 컴퓨터에 제1항 내지 제9항의 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체.
KR1020130072666A 2013-06-24 2013-06-24 이미지 처리 방법 및 장치 KR101528906B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130072666A KR101528906B1 (ko) 2013-06-24 2013-06-24 이미지 처리 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130072666A KR101528906B1 (ko) 2013-06-24 2013-06-24 이미지 처리 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20150000331A true KR20150000331A (ko) 2015-01-02
KR101528906B1 KR101528906B1 (ko) 2015-06-12

Family

ID=52474488

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130072666A KR101528906B1 (ko) 2013-06-24 2013-06-24 이미지 처리 방법 및 장치

Country Status (1)

Country Link
KR (1) KR101528906B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200054615A (ko) * 2018-11-12 2020-05-20 재단법인대구경북과학기술원 영상 내 단일 세그먼트의 복수의 최저점 검출 방법 및 시스템

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH087099A (ja) * 1994-06-15 1996-01-12 Mitsubishi Heavy Ind Ltd 領域分割装置
JP3193240B2 (ja) * 1994-09-08 2001-07-30 株式会社東芝 画像処理装置
JP3294065B2 (ja) * 1995-07-04 2002-06-17 キヤノン株式会社 画像処理装置および画像処理方法
JP2000048213A (ja) * 1998-07-31 2000-02-18 Canon Inc 画像処理装置及び方法、記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200054615A (ko) * 2018-11-12 2020-05-20 재단법인대구경북과학기술원 영상 내 단일 세그먼트의 복수의 최저점 검출 방법 및 시스템

Also Published As

Publication number Publication date
KR101528906B1 (ko) 2015-06-12

Similar Documents

Publication Publication Date Title
KR101636370B1 (ko) 영상 처리 장치 및 방법
US11281897B2 (en) Gesture shaking recognition method and apparatus, and gesture recognition method
US9613266B2 (en) Complex background-oriented optical character recognition method and device
JP5874039B2 (ja) ステレオ画像処理装置及びステレオ画像処理方法
WO2010093408A1 (en) Video matting based on foreground-background constraint propagation
US9245194B2 (en) Efficient line detection method
JP6823486B2 (ja) ひび割れ検出方法
KR101997048B1 (ko) 물류 관리를 위한 원거리 다수의 코드 인식 방법 및 이를 이용한 코드 인식 장치
CN108898148B (zh) 一种数字图像角点检测方法、系统及计算机可读存储介质
JP5812705B2 (ja) ひび割れ検出方法
KR20130072073A (ko) 영상 윤곽선 추출 장치 및 방법
KR101377910B1 (ko) 화상 처리 방법 및 화상 처리 장치
CN108960247B (zh) 图像显著性检测方法、装置以及电子设备
EP2887261B1 (en) Information processing device, information processing method, and program
KR101528906B1 (ko) 이미지 처리 방법 및 장치
JP7008408B2 (ja) ひび割れ検出方法
KR101528604B1 (ko) 이미지 처리 방법 및 장치
Gowri et al. 2D Image data approximation using Savitzky Golay filter—Smoothing and differencing
JP5773935B2 (ja) シーンにおけるオブジェクトを分類する方法
JP2011170554A (ja) 物体認識装置、物体認識方法及び物体認識プログラム
Srikrishna et al. Realization of Human Eye Pupil Detection System using Canny Edge Detector and Circular Hough Transform Technique
Guo et al. A fast page outline detection and dewarping method based on iterative cut and adaptive coordinate transform
KR101777948B1 (ko) 엔트로피와 배경변화율 차이점을 이용한 주요 객체 자동 검출 장치
Prabavathy et al. Gradual transition detection in shot boundary using gradual curve point.
Bhuiyan et al. Edge detection via a fast and adaptive bidimensional empirical mode decomposition

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190610

Year of fee payment: 5