KR100942271B1 - 깊이 정보를 이용한 집적 영상 복원 방법 및 장치 - Google Patents

깊이 정보를 이용한 집적 영상 복원 방법 및 장치 Download PDF

Info

Publication number
KR100942271B1
KR100942271B1 KR1020080005442A KR20080005442A KR100942271B1 KR 100942271 B1 KR100942271 B1 KR 100942271B1 KR 1020080005442 A KR1020080005442 A KR 1020080005442A KR 20080005442 A KR20080005442 A KR 20080005442A KR 100942271 B1 KR100942271 B1 KR 100942271B1
Authority
KR
South Korea
Prior art keywords
image
erosion
reconstructed
blur metric
value
Prior art date
Application number
KR1020080005442A
Other languages
English (en)
Other versions
KR20090012998A (ko
Inventor
이광진
김은수
황동춘
Original Assignee
광운대학교 산학협력단
김은수
황동춘
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광운대학교 산학협력단, 김은수, 황동춘 filed Critical 광운대학교 산학협력단
Publication of KR20090012998A publication Critical patent/KR20090012998A/ko
Application granted granted Critical
Publication of KR100942271B1 publication Critical patent/KR100942271B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

깊이 정보를 이용한 집적 영상 복원 방법 및 장치가 개시된다. 본 발명은 상기 요소 영상을 복원하여 복원 영상을 생성하는 단계, 상기 복원 영상에서 디포커스된 영역을 제거하여 침식 영상을 생성하는 단계, 상기 복원 영상에 상기 침식 영상을 매핑하는 단계를 포함한다. 본 발명에 따른 영상 복원 방법 및 장치는 깊이 정보를 이용하여 집적 영상을 복원한다는 장점이 있다.
블러 메트릭, Blur Metric, 집적영상, 깊이 정보

Description

깊이 정보를 이용한 집적 영상 복원 방법 및 장치 {Method and Apparatus for Reconstruction Integral Image Using Depth}
본 발명은 집적영상의 복원에 관한 것으로, 보다 상세하게는 블러 메트릭을 이용하여 추출한 깊이 정보를 통한 집적 영상 복원 방법 및 장치에 관한 것이다.
3차원 물체 인식에 관한 연구 및 시스템 구현은 수 세기 동안 진척되어 왔다. 3차원 물체 인식에는 본질적으로 공간상의 3차원 물체의 위치 정보 검출이 수반된다. 최근에 3차원 물체 인식을 위한 접근방법으로 집적영상기법이 제안되었다. 3차원 영상을 기록하고 디스플레이 하는 방법중의 하나인 집적영상기법은 마이크로 렌즈 어레이(lens array)를 통해 물체의 다(多)시점 2차원 영상들을 획득하는 방법이다. 이러한 집적영상기법을 이용한 3차원 물체 인식에 관한 접근 방식들은 공간상의 3차원 물체의 위치정보를 검출하는 연구를 수반하고 있다.
일반적으로 집적영상 시스템은 크게 픽업과정과 디스플레이 및 복원과정으로 이루어져 있다. 픽업과정에서는 렌즈 어레이 또는 핀홀 어레이를 통하여 맺힌 다시점의 축소된 영상이 CCD 카메라에 의해 기록된다. 이 기록된 영상들을 요소 영상들이라고 한다. 이에 반해 디스플레이 및 복원 과정은 픽업과정의 역 과정으로 처리한다. 디스플레이 패널의 기록된 요소 영상들이 렌즈 어레이 또는 핀홀 어레이를 통해 3차원 영상으로 복원된다. 집적영상을 복원함에 있어서는 광학적 집적 영상 복원기법과 컴퓨터적 집적 영상 복원기법이 있다. 광학적 집적 영상 복원기법은 회절과 수차 등과 같은 광학적 장치의 물리적인 제한에 의해 야기된 요소 영상들간의 불충분한 오버랩과 복원된 3차원 영상의 저하된 화질로 인해 저해상도의 3차원 영상이 복원되는 문제점을 가지고 있다. 이러한 결점을 보완하기 위해 기하광학의 디지털 시뮬레이션을 통하여 컴퓨터적으로 3차원 영상을 복원할 수 있는 핀홀 어레이 모델기반 컴퓨터적 집적영상 복원기법(computer integral imaging reconstruction: CIIR)이 소개되었다. 즉, 핀홀 어레이 모델을 이용하여 도립적으로 매핑된 모든 요소영상들간의 중첩으로부터 3차원 영상이 뎁스 평면상에서 컴퓨터적으로 복원될 수 있다. 하지만 기존의 컴퓨터적 집적 영상 복원기법 또한 복원된 영상 평면에서 요소영상들간의 불충분한 오버랩에 따른 격자구조와 명암도의 불규칙성으로 인해 저해상도의 영상을 복원하였다. 이후 복원된 3차원 영상의 해상도를 향상시키기 위해 렌즈 어레이 모델 기반 컴퓨터적 집적 영상 복원기법이 제안되었다.
광학적 또는 컴퓨터적으로 복원된 영상의 해상도는 3차원 물체의 검출 및 인식 그리고 위치정보 추출 등과 같은 응용 분야에 중요한 요소로 작용하게 된다. 즉, 3차원 물체의 영상이나 features들 간의 상관도 측정이 본질적으로 물체 인식 을 위한 하위 프로세서로 작용하므로 정확한 출력 평면에서의 critical 상관피크는 영상이나 features들의 해상도에 크게 의존한다. 따라서, 집적영상에서 복원된 영상의 해상도를 향상시키는 것이 이슈가 되고 있다. 최근에 집적영상으로부터 복원된 영상의 해상도를 향상시키기 위한 몇몇 디지털적 방법이 제안되었다. 그 중 하나의 방법은 중간영상복원기법(Intermediate-view-reconstruction: IVR)을 사용하여 획득된 요소영상들 사이 사이의 중간 요소 영상들을 생성하므로 이로 인한 충분한 오버랩에 의해 해상도가 향상된 영상이 획득하는 방법이다.
이와 비슷하게 다른 방법은 획득된 요소영상들을 먼저 서브 이미지로 재배열하고 IVR을 사용하여 재배열된 서브이미지 사이 사이의 중간 서브이미지들을 생성한 다음, 다시 요소 영상들로 변환하여 해상도가 향상된 영상을 획득하는 방법이다. IVR의 결과로 요소영상들의 수가 증가되지만, 렌즈 어레이로부터 획득된 요소영상이나 재배열된 서브이미지의 낮은 해상도가 IVR 단계에서 많은 false-negatives와 false-positives들을 야기함에 따라 결과적으로 해상도가 저하될 문제점이 있다. 따라서 위에서 제안된 방법들은 인접한 요소영상들이나 서브이미지들간의 폐쇄영역(occlusion region)들이 없을지라도 추가적으로 서브 픽셀 레벨의 시차보정이 필요하고 인접한 요소영상들이나 서브이미지들간의 baseline이 충분히 멀어야 된다는 문제점이 있다. 이러한 추가 필요 요건들은 집적영상에서의 IVR의 정확도와 중간 요소 영상들 그리고 복원된 영상들의 해상도에 직접적으로 영향을 미친다. 또한 위에 언급된 방법들은 복원된 영상의 디포커스된 잡음을 제거하기보다는 요소영상의 수를 증가시켜 복원된 영상의 해상도를 향상시키는 것에 초점을 맞춰져 있어 근본적인 해상도에 향상의 문제점을 해결하지 못하였다.
본 발명의 목적은 깊이 정보를 이용한 집적 영상 복원 방법 및 장치를 제안하는 것이다.
본 발명의 다른 목적은 복원된 영상의 디포커스된 영역을 제거하는 방법 및 장치를 제안하는 것이다.
본 발명의 일 측면에 따르면, 렌즈 어레이를 통해 픽업한 요소 영상을 이용하여 집적 영상을 복원하는 방법에 있어서, 상기 요소 영상을 복원하여 복원 영상을 생성하는 단계; 상기 복원 영상에서 디포커스된 영역을 제거하여 침식 영상을 생성하는 단계; 상기 복원 영상에 상기 침식 영상을 매핑하는 단계를 포함하는 집적 영상 복원 방법이 제공된다.
상기 침식 영상을 생성하는 단계는 상기 복원 영상에서 블러 메트릭 값을 측정하는 단계; 상기 블러 메트릭 값을 이용하여 상기 복원 영상 중 포커스 영상을 선정하는 단계; 및 상기 블러 메트릭 값을 이용하여 상기 포커스 영상에 침식 연산을 하는 단계를 포함하되, 상기 포커스 영상은 초점이 대상 물체에 잡힌 복원 영상일 수 있다.
상기 침석 연산을 하는 단계는 상기 포커스 영상의 명암값을 최대 블러 메트 릭 값으로 나눈 제1 값과 상기 평균 블러 메트릭 값을 상기 명암값에 곱한 제2 값을 이용하는 것일 수 있다.
상기 포커스 영상을 선정하는 단계는 초점 거리에 따른 상기 블러 메트릭 값의 변화량을 산출하는 단계; 및 상기 변화량이 음에서 양으로 변하는 변곡점을 이용하여 선정하는 단계를 포함할 수 있다.
본 발명의 다른 측면에 따르면, 집적 영상을 복원 하는 장치에 있어서, 렌즈 어레이를 통해 요소 영상을 생성하는 픽업부; 상기 요소 영상을 복원하여 복원 영상을 생성하는 복원부; 상기 복원 영상의 블러 메트릭 값을 이용하여 디포커스된 영역을 제거하여 침식 영상을 생성하는 제거부; 및 상기 침식 영상을 상기 복원된 영상에 매핑하는 제어부를 포함하는 영상 복원 장치가 제공된다.
상기 제거부는, 상기 복원 영상의 상기 블러 메트릭 값을 측정하고, 상기 블러 메트릭 값을 이용하여 상기 복원 영상 중 포커스 영상을 선정하고, 상기 블러 메트릭 값을 이용하여 상기 복원 영상에 침식 연산하는 것이되, 상기 포커스 영상은 초점이 대상 물체에 잡힌 복원 영상일 수 있다.
상기 침식 연산은 상기 복원 영상의 명암값을 최대 블러 메트릭 값으로 나눈 제1 값과 상기 평균 블러 메트릭 값을 상기 명암값에 곱한 제2 값을 이용하는 것일 수 있다.
상기 포커스 영상은 초점 거리에 따른 상기 블러 메트릭 값의 변화량이 음에서 양으로 변하는 변곡점을 이용하여 선정하는 것일 수 있다.
본 발명의 또 다른 측면에 따르면, 영상 복원 방법을 수행하기 위해 영상 복원 장치에 의해 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되어 있으며, 상기 영상 복원 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체에 있어서, 상기 요소 영상을 복원하여 복원 영상을 생성하는 단계; 상기 복원 영상에서 디포커스된 영역을 제거하여 침식 영상을 생성하는 단계; 상기 복원 영상에 상기 침식 영상을 매핑하는 단계를 수행하는 프로그램이 기록된 기록매체가 제공된다.
본 발명에 따른 영상 복원 방법 및 장치는 깊이 정보를 이용하여 집적 영상을 복원한다는 장점이 있다.
또한, 본 발명에 따른 영상 복원 방법 및 장치는 복원된 영상의 디포커스된 영역을 제거할 수 있다는 장점이 있다.
또한, 본 발명에 따른 영상 복원 방법 및 장치는 복원된 영상의 해상도를 향상시킨다는 장점이 있다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발 명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 도 1, 도 2a 및 도 2b를 참조하여 블러 메트릭에 기반한 집적영상 복원기법에 의해 복원된 영상의 깊이 정보를 추출하는 집적 영상 복원 장치(100)의 각 기능부를 설명하도록 한다.
도 1은 본 발명의 실시예에 따른 깊이 정보 추출 장치의 각 기능부를 예시한 도면이고, 도 2a는 본 발명의 실시예에 따라 평균 블러 메트릭 값을 측정한 물체를 예시한 도면이고, 도 2b는 본 발명의 실시예에 따른 거리값에 따른 평균 블러 메트릭 값을 도시한 그래프이고, 도 2c는 본 발명의 실시예에 따라 복원, 침식 및 매핑된 영상이다.
도 1을 참조하면, 집적 영상 복원 장치(100)는 픽업부(110), 복원부(120), 제거부(130) 및 제어부(140)을 포함한다.
픽업부(110)는 렌즈 어레이를 통해 임의의 3차원 물체를 광학적으로 기록한다. 예를 들어, 픽업부(110)는 렌즈 어레이를 통해 3차원 물체의 다시점을 형성하는 2차원 요소 영상을 생성한다. 이 때, 픽업부(110)는 요소 영상을 기하광학법칙에 따른 디지털 시뮬레이션 모델을 통해 생성할 수도 있다. 이어서, 픽업부(110)는 요소 영상을 복원부로 출력한다.
복원부(120)는 요소 영상을 집적영상 복원기법을 이용하여 복원한다. 예를 들어, 복원부(120)는 도립적으로 투영된 요소영상을 가상 핀홀 어레이와 복원 영상 평면 사이의 거리 L과 핀홀 어레이와 요소 영상 평면 사이의 거리 g에 의해 디지털적으로 L/g만큼 확대한다. 복원부(120)는 확대된 요소 영상의 각 픽셀값을 복원 영상 평면에 각 픽셀값과 합한 값으로 복원 영상 평면 값을 갱신한다. 복원부(120)는 획득된 모든 요소 영상들의 평면 영상을 복원하기 위해서 각각의 요소 영상에 상응하는 핀홀을 통해 상술한 과정을 반복적으로 수행한다. 복원부(120)는 상술한 복원 과정을 통해 각 요소 영상에 상응하는 복원 영상을 생성하여 제거부(130)으로 출력한다.
제거부(130)는 각각의 복원된 영상의 블러 메트릭 값을 측정하고, 측정된 블 러 메트릭에 따라 포커스된 복원영상을 적응적으로 침식 연산한다. 제거부(130)는 복원된 영상의 임의의 에지 포인트에 대한 블러 메트릭 값을 에지의 크기와 표준편차의 가중평균을 이용하여 하기 수학식 1을 통해 산출할 수 있다.
[수학식 1]
Figure 112008004126184-pat00001
여기서,
Figure 112008004126184-pat00002
는 에지의 최대값이고,
Figure 112008004126184-pat00003
는 에지 포인트의 표준편차에 대한 최대값이고,
Figure 112008004126184-pat00004
는 영상의 컨트라스트이고,
Figure 112008004126184-pat00005
는 에지 포인트 P의 블러 메트릭 값이다.
상술한 수학식으로 산출한 블러 메트릭이 높은 값을 가지면 선명한 에지를 나타내며, 낮은 값을 가지면 디포커스된 에지를 나타낸다. 제거부(130)는 하기 수학식 2를 이용하여 각 에지 포인트에 대한 블러 메트릭의 평균을 산출할 수 있다.
[수학식 2]
Figure 112008004126184-pat00006
여기서, N은 복원된 영상의 해상도(즉, 복원된 영상의 픽셀수)이다.
상술하였듯이, 블러 메트릭 값이 0에 가까우면 에지 포인트가 디포커스된 것을 나타내고, 1에 가까우면 에지 포인트가 포커스된 것을 나타낸다. 따라서, 평균 블러 메트릭 값은 높을수록 복원영상이 디포커스된 것으로, 낮을수록 포커스되었다고 추정된다.
도 2a에 예시된 201 내지 204은 렌즈 어레이 사이의 거리가 각각 30, 75, 45, 60mm에 위치하는 3차원 물체이다. 도 2b는 렌즈 어레이를 통해 201 내지 204을 픽업한 요소 영상을 복원한 영상에 대한 블러 메트릭 값을 그래프로 나타낸 예이다. 이 때, x축은 초점 거리(렌즈와 초점 사이의 거리)를 나타내고, y축은 해당 초점 거리에 상응하는 요소 영상의 평균 블러 메트릭 값(요소 영상에서 각 에지 포인트에 해당하는 블러 메트릭 값의 평균값)을 나타낸다.
도 2a 내지 2c를 참조하면, 제거부(130)는 도 2b의 평균 블러 메트릭의 값을 표현한 그래프에서 그 기울기가 음에서 양으로 변하는 변곡점을 이용하여 깊이 정보를 추정할 수 있다. 즉, 제거부(130)는 3차원 물체에 대한 사전 정보 없이 블러 메트릭에 의해 3차원 물체의 깊이 정보를 추정할 수 있다.
예를 들어, 제거부(130)는 입력 받은 복원 영상의 블러 메트릭 값을 측정하고 이에 따른 그래프의 변곡점을 조사할 수 있다. 즉, 제거부(130)는 초점 거리의 변화에 따라 평균 블러 메트릭 값이 감소하다가 증가하는 변곡점을 조사할 수 있다. 예를 들어, 도 2b에서 초점 거리가 27mm에서 30mm로 갈수록 평균 블러 메트릭 값이 감소하다가 30mm부터 33mm인 지점의 블러 메트릭 값이 다시 증가한다. 이 때, 제거부(130)는 30mm지점에 물체가 존재하는 것으로 판단할 수 있다. 즉, 도 2b와 같은 평균 블러 메트릭 값이 산출되었을 때, 제거부(130)는 210 내지 240의 지점을 물체가 존재하는 것으로 판단할 수 있다.
이하, 제거부(130)가 물체가 존재하는 것으로 판단한 지점에서의 영상을 이하 포커스 영상이라 칭한다. 즉, 포커스 영상은 복원 영상 중 초점이 물체에 잡힌 영상이다. 예를 들어, 도 2b의 210 내지 240 지점에서의 요소 영상이 포커스 영상일 수 있다.
이어서 제거부(130)는 침식연산을 이용하여 디포커스에 의해 생성된 영역확장(이미지의 뭉개짐)을 줄여주는 역할을 수행한다. 침식 연산은 임의의 영상의 배경을 확장시키고 물체의 크기를 축소하는 역할을 한다. 즉, 침식 마스크를 이용한 연산으로 흰 물체의 둘레로부터 노이즈를 제거하는 효과를 갖는다. 하기 수학식 3은 침식연산을 수식화한 것이다.
[수학식 3]
Figure 112008004126184-pat00007
여기서, s는 영상의 x축 좌표값이고, t는 영상의 y축 좌표값이고, x는 침식연산시 사용되는 마스크의 x축 좌표값이며, y는 마스크의 y축 좌표값이다. 또한 f(s+x,t+y)는 영상의 (s+x,t+y) 좌표상의 픽셀값이고, b(x,y)는 마스크의 (x,y) 좌표상의 픽셀값이다.
제거부(130)는 포커스 영상의 명암값을 최대 블러 메트릭 값으로 나눈 제1 값과 상기 평균 블러 메트릭 값을 상기 명암값에 곱한 제2 값을 이용하여 침식연산을 수행한다. 예를 들어, 제거부(130)는 수학식 3의 마스크를 영상에 따라 달리 적용하기 위해, 하기의 수학식 4를 통해 마스크의 값을 산출한다.
[수학식 4]
Figure 112008004126184-pat00008
여기서, T는 침식 파라미터(Erosion parameter)(마스크 값)이고, L은 명암값이다.
제거부(130)는 T를 수학식 3의 b(x,y)의 값으로 설정하고, 수학식 3을 통해 침식연산을 수행하여 디포커스된 영역을 제거한다. 이어서 제거부(130)는 침식된 영상을 제어부(140)으로 전송한다.
제어부(140)는 집적 영상 복원 장치(100)의 전반적인 동작을 제어한다. 제어부(140)는 픽업부(110)가 렌즈 어레이를 통해 외부 환경을 촬상 및 요소 영상을 생성하도록 제어하고, 복원부(120)가 픽업부(110)로부터 요소 영상을 입력 받아 복원하도록 제어한다. 이어서 제어부(140)는 복원부(120)로부터 복원 영상을 입력 받아 디포커스된 영상을 침식 연산으로 제거하도록 제거부(130)를 제어한다. 이어서 제어부(140)는 물체 영역을 보전하기 위해 침식 연산된 영상(편의상, '침식 영상'이라 지칭)을 복원 영상에 매핑한 영상(편의상, '매핑 영상')을 생성한다.
도 2c의 250 내지 280은 각각 도 2b의 210 내지 240의 지점에 상응하는 복원 영상, 침식 영상 및 매핑 영상이다. 특히, 250 내지 280은 각각 201 내지 204가 위 치한 지점에 초점이 맞춰진 요소 영상을 나타낸 것이다. 각 복원영상과 매핑 영상을 비교해보면 침식 연산을 통해 매핑 영상의 포커스된 영역이 더욱 선명하게 나타나는 것을 볼 수 있다. 즉, 제거부(130)가 침식 연산을 통해 디포커스된 영역(즉, 해당 요소 영상의 초점 거리에 위치한 물체 이외의 영역)을 제거함으로써, 제어부(140)는 향상된 해상도의 영상을 복원할 수 있다. 예를 들어, 제어부(140)는 250의 요소 영상(201이 위치한 지점에 초점이 맞춰진 요소 영상)에서 침식 연산을 수행하도록 제거부(130)을 제어한다. 이로 인해 201이 나타난 영역을 제외한 영역은 침식 연산을 통해 제거된다.
이하 도 3을 참조하여 본 발명의 일 실시예에 따른 블러 메트릭 값을 이용하여 추출된 깊이 정보를 추출하고 매핑 영상을 생성하는 과정을 설명하도록 한다.
도 3은 본 발명의 일 실시예에 따른 블러 메트릭을 이용한 깊이 정보 추출 및 매핑영상을 생성하는 과정을 도시한 순서도이다. 이하에서 설명되는 각각의 단계는 휴대용 단말기(100)의 내부 구성 요소에 의해 수행 될 수 있으나 이해와 설명의 편의를 도모하기 위해 집적 영상 복원 장치(100)로 통칭하여 설명하기로 한다.
도 3을 참조하면, 단계 310에서 집적 영상 복원 장치(100)는 렌즈 어레이를 통해 광학적으로 요소 영상을 픽업한다.
이어서, 단계 320에서 집적 영상 복원 장치(100)는 요소 영상을 컴퓨터적 집적영상 복원기법을 이용하여 복원한다. 이 때, 복원 영상 평면과 렌즈 어레이의 거리가 L, 핀홀 어레이와 요소 영상 평면 사이의 거리가 g일 경우 각 요소 영상은 L/g만큼 확대한다.
이어서, 단계 330에서 집적 영상 복원 장치(100)는 복원 영상의 블러 메트릭 값을 측정하고, 단계 340에서 집적 영상 복원 장치(100)는 단계 330에서 측정된 블러 메트릭 값을 이용하여 복원 영상이 포커스 영상인지 판단한다.
예를 들어, 집적 영상 복원 장치(100)는 평균 블러 메트릭의 값을 표현한 그래프에서 기울기가 음에서 양으로 변하는 변곡점(즉, 평균 블러 메트릭의 값의 변화량이 음에서 양으로 변하는 변곡점)을 이용하여 깊이 정보를 추정한다. 이어서 집적 영상 복원 장치(100)는 깊이 정보에 따라 복원 영상이 포커스 영상인지 판단한다.
이어서, 단계 350에서 집적 영상 복원 장치(100)는 포커스 영상을 침식 연산하고, 단계 360에서 집적 영상 복원 장치(100)는 물체 영역을 보존하기 위해 복원영상에 침식영상을 매핑한다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 깊이 정보 추출 장치의 각 기능부를 예시한 도면.
도 2a는 본 발명의 실시예에 따라 평균 블러 메트릭 값을 측정한 물체를 예시한 도면.
도 2b는 본 발명의 실시예에 따른 거리값에 따른 평균 블러 메트릭 값을 도시한 그래프.
도 2c는 본 발명의 실시예에 따라 복원, 침식, 매핑된 영상.
도 3은 본 발명의 실시예에 따른 블러 메트릭을 이용한 깊이 정보 추출 및 매핑 영상을 생성하는 과정을 도시한 순서도.

Claims (9)

  1. 렌즈 어레이를 통해 픽업한 요소 영상을 이용하여 집적 영상을 복원하는 방법에 있어서,
    상기 요소 영상을 미리 지정된 크기로 확대하고, 상기 확대된 각 요소 영상의 동일 좌표에 위치하는 픽셀을 합하여 복원 영상을 생성하는 단계;
    상기 각 복원 영상의 블러 메트릭 값을 측정하는 단계;
    초점 거리에 따른 상기 블러 메트릭 값의 변곡점에 상응하는 복원 영상을 포커스 영상으로 선정하는 단계;
    상기 포커스 영상의 각 픽셀값에서 상응하는 침식 마스크의 각 픽셀값을 빼는 침식 연산을 통해 침식 영상을 생성하는 단계; 및
    상기 복원 영상에 상기 침식 영상을 매핑하는 단계를 포함하는 집적 영상 복원 방법.
  2. 삭제
  3. 제1 항에 있어서,
    상기 침식 마스크는 침식 파라미터를 각 픽셀로 구성되는 영상이고,
    상기 침식 파라미터는 하기의 식으로 산출되되,
    T는 상기 침식 파라미터이고,
    Figure 112009048346389-pat00014
    는 상기 포커스 영상의 모든 픽셀에 상응하는 블러 메트릭 값의 평균이고, L은 명암값이고,
    Figure 112009048346389-pat00015
    Figure 112009048346389-pat00016
    의 최대값인 것을 특징으로 하는 집적 영상 복원 방법.
    Figure 112009048346389-pat00017
  4. 제 1항에 있어서,
    상기 복원 영상을 포커스 영상으로 선정하는 단계는
    상기 초점 거리에 따른 상기 블러 메트릭 값의 변화량을 산출하는 단계; 및
    상기 변화량이 음에서 양으로 변하는 변곡점에 상응하는 복원 영상을 상기 포커스 영상으로 선정하는 단계를 포함하는 집적 영상 복원 방법.
  5. 집적 영상을 복원 하는 장치에 있어서,
    렌즈 어레이를 통해 요소 영상을 생성하는 픽업부;
    상기 각 요소 영상을 미리 지정된 크기로 확대하고, 상기 확대된 각 요소 영상의 동일 좌표에 위치하는 픽셀을 합하여 복원 영상을 생성하는 복원부;
    상기 복원 영상의 블러 메트릭 값을 측정하고, 초점 거리에 따른 상기 블러 메트릭 값의 변곡점에 상응하는 복원 영상을 포커스 영상으로 선정하고, 상기 포커스 영상의 각 픽셀값에서 상응하는 침식 마스크의 각 픽셀값을 감하는 침식 연산을 통해 침식 영상을 생성하는 제거부; 및
    상기 침식 영상을 상기 복원된 영상에 매핑하는 제어부를 포함하는 영상 복원 장치.
  6. 삭제
  7. 제5 항에 있어서,
    상기 침식 마스크는 침식 파라미터를 각 픽셀로 구성되는 영상이고,
    상기 제거부는 상기 침식 파라미터를 하기의 식으로 산출하되,
    T는 상기 침식 파라미터이고,
    Figure 112009074447290-pat00018
    는 상기 포커스 영상의 모든 픽셀에 상응하는 블러 메트릭 값의 평균이고, L은 명암값이고,
    Figure 112009074447290-pat00019
    Figure 112009074447290-pat00020
    의 최대값인 것을 특징으로 하는 영상 복원 장치.
    Figure 112009074447290-pat00021
  8. 제5 항에 있어서,
    상기 제거부는 상기 초점 거리에 따른 상기 블러 메트릭 값의 변화량이 음에서 양으로 변하는 변곡점에 상응하는 상기 복원 영상을 상기 포커스 영상으로 선정하는 것을 특징으로 하는 영상 복원 장치.
  9. 집적 영상 복원 방법을 수행하기 위해 영상 복원 장치에 의해 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되어 있으며, 상기 영상 복원 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체에 있어서,
    요소 영상을 미리 지정된 크기로 확대하고, 상기 확대된 각 요소 영상의 동일 좌표에 위치하는 픽셀을 합하여 복원 영상을 생성하는 단계;
    상기 각 복원 영상의 블러 메트릭 값을 측정하는 단계;
    초점 거리에 따른 상기 블러 메트릭 값의 변곡점에 상응하는 복원 영상을 포커스 영상으로 선정하는 단계;
    상기 포커스 영상의 각 픽셀값에서 상응하는 침식 마스크의 픽셀값을 감하는 침식 연산을 통해 침식 영상을 생성하는 단계; 및
    상기 복원 영상에 상기 침식 영상을 매핑하는 단계를 수행하는 프로그램이 기록된 기록매체.
KR1020080005442A 2007-07-30 2008-01-17 깊이 정보를 이용한 집적 영상 복원 방법 및 장치 KR100942271B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020070076394 2007-07-30
KR20070076394 2007-07-30

Publications (2)

Publication Number Publication Date
KR20090012998A KR20090012998A (ko) 2009-02-04
KR100942271B1 true KR100942271B1 (ko) 2010-02-16

Family

ID=40683679

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080005442A KR100942271B1 (ko) 2007-07-30 2008-01-17 깊이 정보를 이용한 집적 영상 복원 방법 및 장치

Country Status (1)

Country Link
KR (1) KR100942271B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101093758B1 (ko) 2009-12-02 2011-12-19 광운대학교 산학협력단 집적 영상 복원 방법 및 장치

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101025405B1 (ko) * 2009-11-02 2011-03-28 중앙대학교 산학협력단 초점 조절 영상 생성 시스템, 방법 및 이를 채용한 촬영 장치
KR101100784B1 (ko) * 2009-11-10 2012-01-02 광운대학교 산학협력단 물체 인식 방법 및 장치
KR101121132B1 (ko) * 2009-12-09 2012-03-19 광운대학교 산학협력단 집적 영상 복원 방법 및 장치
US9456152B2 (en) 2011-07-12 2016-09-27 Samsung Electronics Co., Ltd. Device and method for blur processing

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980014064A (ko) * 1996-08-07 1998-05-15 구자홍 광픽업시스템의 디포커스(Defocus) 조정장치
WO2005083377A1 (en) 2004-03-01 2005-09-09 Iatia Imaging Pty Ltd Method and apparatus for producing an image containing depth information
KR20060062168A (ko) * 2004-12-03 2006-06-12 엘지전자 주식회사 디포커스 현상을 보정하는 영상처리장치
KR20070083011A (ko) * 2006-02-20 2007-08-23 엘지전자 주식회사 카메라 모듈의 오차 보정 장치 및 그 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980014064A (ko) * 1996-08-07 1998-05-15 구자홍 광픽업시스템의 디포커스(Defocus) 조정장치
WO2005083377A1 (en) 2004-03-01 2005-09-09 Iatia Imaging Pty Ltd Method and apparatus for producing an image containing depth information
KR20060062168A (ko) * 2004-12-03 2006-06-12 엘지전자 주식회사 디포커스 현상을 보정하는 영상처리장치
KR20070083011A (ko) * 2006-02-20 2007-08-23 엘지전자 주식회사 카메라 모듈의 오차 보정 장치 및 그 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101093758B1 (ko) 2009-12-02 2011-12-19 광운대학교 산학협력단 집적 영상 복원 방법 및 장치

Also Published As

Publication number Publication date
KR20090012998A (ko) 2009-02-04

Similar Documents

Publication Publication Date Title
JP5454821B2 (ja) 多重解像度手順を利用してロバストな深度マップを生成するためのシステム及び方法
CN108107571B (zh) 图像处理装置及方法及非暂时性计算机可读记录介质
JP6271990B2 (ja) 画像処理装置、画像処理方法
Rajan et al. Simultaneous estimation of super-resolved scene and depth map from low resolution defocused observations
JP5631025B2 (ja) 情報処理装置、その処理方法及びプログラム
CN107316326B (zh) 应用于双目立体视觉的基于边的视差图计算方法和装置
JP5977591B2 (ja) 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体
WO2014044126A1 (zh) 坐标获取装置、实时三维重建系统和方法、立体交互设备
JP6577703B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
KR100953076B1 (ko) 객체 또는 배경 분리를 이용한 다시점 정합 방법 및 장치
JP2009536499A (ja) 2次元画像から3次元オブジェクトを再構成するシステム及び方法
CN107517346B (zh) 基于结构光的拍照方法、装置及移动设备
KR20150027291A (ko) 광류 추적 방법 및 장치
KR100942271B1 (ko) 깊이 정보를 이용한 집적 영상 복원 방법 및 장치
CN111080776B (zh) 人体动作三维数据采集和复现的处理方法及系统
WO2012029658A1 (ja) 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム
JP4631973B2 (ja) 画像処理装置、画像処理装置の制御方法、および画像処理装置の制御プログラム
JP4990876B2 (ja) 画像処理装置
KR101799143B1 (ko) 타깃 사이즈를 추정하기 위한 시스템 및 방법
JP6395429B2 (ja) 画像処理装置、その制御方法及び記憶媒体
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6486453B2 (ja) 画像処理装置、画像処理方法、プログラム
WO2019087467A1 (ja) 計測システム、計測装置、及び計測方法
KR100927236B1 (ko) 영상 복원 방법, 영상 복원 장치 및 영상 복원 방법을 실행하는 프로그램이 기록된 컴퓨터에서 판독될 수 있는 기록매체
JP2016156702A (ja) 撮像装置および撮像方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130204

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140205

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150130

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160201

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180202

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20190207

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20200203

Year of fee payment: 11