KR100975928B1 - 오토 포커싱 방법 - Google Patents

오토 포커싱 방법 Download PDF

Info

Publication number
KR100975928B1
KR100975928B1 KR1020080126221A KR20080126221A KR100975928B1 KR 100975928 B1 KR100975928 B1 KR 100975928B1 KR 1020080126221 A KR1020080126221 A KR 1020080126221A KR 20080126221 A KR20080126221 A KR 20080126221A KR 100975928 B1 KR100975928 B1 KR 100975928B1
Authority
KR
South Korea
Prior art keywords
auto
tracking
image
region
area
Prior art date
Application number
KR1020080126221A
Other languages
English (en)
Other versions
KR20100067710A (ko
Inventor
보그다노프
변오성
신창목
Original Assignee
삼성전기주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전기주식회사 filed Critical 삼성전기주식회사
Priority to KR1020080126221A priority Critical patent/KR100975928B1/ko
Priority to CN2009102531930A priority patent/CN101750845B/zh
Priority to US12/654,200 priority patent/US7995909B2/en
Publication of KR20100067710A publication Critical patent/KR20100067710A/ko
Application granted granted Critical
Publication of KR100975928B1 publication Critical patent/KR100975928B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/16Special procedures for taking photographs; Apparatus therefor for photographing the track of moving objects

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

본 발명에 의한 오토 포커싱 방법은, 소정의 이미지 내에서의 이동체에 대한 오토 트랙킹을 위하여 사용자의 입력에 의하여 선택되는 하나의 중심 포인트; 상기 중심 포인트를 감싸도록 설정된 오토 포커싱 영역; 및 상기 오토 포커싱 영역을 감싸도록 주위에 설정된 트랙킹 서브 영역을 포함하여 상기 중심 포인트, 오토 포커싱 영역 및 트랙킹 서브 영역이 함께 상기 이동체를 추종하고, 상기 이동체의 이동에 따라서 상기 오토 포커싱 영역의 위치를 변화시키고 상기 트랙킹 서브 영역의 위치를 업데이트하도록 구성되며, 상기 오토 트랙킹을 위한 이동체가 이미지의 에지부로부터 벗어나고 있는 경우, 상기 트랙킹 서브 영역의 에지부는 상기 이미지의 에지부와 일치된 상태로 유지됨과 동시에 상기 트랙킹 서브 영역 내부의 오토 포커싱 영역만이 상기 트랙킹 서브 영역 내에서 상기 이동체를 추종하도록 상기 이미지의 에지부를 향하여 이동하며, 상기 오토 트랙킹을 위한 이동체가 이미지의 에지부로부터 완전히 벗어나 상기 오토 포커싱 영역만이 상기 트랙킹 서브 영역 내에서의 이동에 의하여 상기 이미지의 에지부에 도달한 경우에도, 상기 오토 포커싱 영역과 트랙킹 서브 영역은 모두 상기 이미지의 에지부에서 유지되도록 구성되는 것을 특징으로 한다.

Description

오토 포커싱 방법{AUTO-FOCUSING METHOD}
본 발명은 카메라 디바이스에 있어서의 오토 포커싱 방법에 관한 것으로서, 특히, 휴대폰 등과 같은 모바일 통신 디바이스에 장착되는 카메라 모듈에 있어서의 소정 이미지 내의 이동체를 자동으로 추종할 수 있는 오토 포커싱 방법에 관한 것이다.
일반적으로, 카메라 모듈(CCM:Compact Camera Module)은 소형으로써 카메라폰이나 PDA, 스마트폰을 비롯한 휴대용 이동통신 기기와 토이 카메라(toy camera) 등의 다양한 IT 기기에 적용되고 있는 바, 최근에 이르러서는 소비자의 다양한 취향에 맞추어 소형의 카메라 모듈이 장착된 기기의 출시가 점차 늘어나고 있는 실정이다.
이와 같은 카메라 모듈은, CCD나 CMOS 등의 이미지센서를 주요 부품으로 하여 제작되고 있으며 상기 이미지센서를 통하여 사물의 이미지를 집광시켜 기기내의 메모리상에 데이터로 저장되고, 저장된 데이터는 기기내의 LCD 또는 PC 모니터 등의 디스플레이 매체를 통해 영상으로 디스플레이된다.
또한, 최근에는 카메라 렌즈로 포착되는 피사체의 휘도신호를 이용해서 피사 체를 검출하고 이 검출된 피사체에 맞추어 광학계를 구동시켜 그 촛점을 자동적으로 맞춰주는 오토 포커싱 기술이 널리 사용되고 있다.
이와 같은, 콘트라스트 방식에 의한 오토 포커싱에서는 카메라의 촬영 범위 내에 있는 피사체의 전체를 오토 포커싱의 대상으로 하는 것이 아니라, 촬영 범위 중의 일부의 관심 범위에 있는 피사체만을 대상으로 하는 것이 많다. 콘트라스트 방식의 오토 포커싱에서는 이미지센서의 촬상 영역 전체에 의하여 받아 들여진 화상 신호 가운데 오토 포커싱의 대상으로 하는 범위의 화상 신호를 추출하고, 그 추출한 범위의 화상 신호의 콘트라스트가 가장 높아지도록 포커스를 제어하는 것에 의해 오토 포커스의 대상을 일부의 범위의 피사체로 한정하고 있다.
그러나, 현재에 사용되고 있는 기술에 의한 오토 포커싱의 경우에는 피사체가 소정의 이미지 내에서 이동하여 상기 이미지 영역을 이탈하는 경우 (가령, 피사체가 이미지 밖으로 이동하여 사라질 경우) 기존의 추종되던 피사체에 대한 정보가 손실되어 피사체를 더 이상 추종할 수 없게 되는 문제점이 발생된다.
뿐만 아니라, 종래의 콘트라스트 방식에 의한 오토 포커싱 방법은, 가령 촛점화된 이미지 생성을 위한 최적의 렌즈 위치를 찾기 위하여 렌즈 위치가 변화되는 동안 이미지가 언포커싱될 수 있으며, 이 경우 관심 범위에 있는 이동체의 추종에 실패할 가능성이 매우 높다.
한편, 실제의 촬영에서는, 하나의 피사체만을 항상 오토 포커싱의 대상으로 하는 것이 아니라 사용자의 판단에 의하여 순간적으로 다른 피사체로 오토 포커싱 의 대상을 바꾸어야 할 경우가 있는데, 이러한 경우에는 트랙 볼 등에 의한 사용자 입력에 의한 관심 범위의 설정에 있어서 이동체의 신속한 추종 응답 측면에서 문제점을 내포하고 있다.
또한, 현재 사용되고 있는 DSC 카메라의 경우에 있어서는 이동체의 추종 능력을 제공하고 있지만, 모바일 폰과 같은 소형의 디바이스의 경우 메모리 등과 같은 하드웨어적인 제약으로 인하여 모바일 폰 적용을 위한 별도의 알고리즘이 요구되고 있는 실정이다.
본 발명에 의한 오토 포커싱 알고리즘은 이상과 같은 종래 기술에서의 오토 포커싱 방법과 관련된 문제점을 해결하기 위하여 창안된 것으로서, 피사체가 소정의 이미지 내에서 이동하여 상기 이미지 영역을 이탈하는 경우에도 기존의 추종되던 피사체에 대한 정보가 손실됨이 없도록 하여 피사체를 계속 안정되게 추종할 수 있도록 하는 오토 포커싱 방법을 제공하는 것을 그 목적으로 한다.
또한, 본 발명에 의한 오토 포커싱 알고리즘은, 촛점화된 이미지 생성을 위한 렌즈 위치의 변화시 뿐만 아니라 줌 인, 줌 아웃 등과 같은 줌 팩터(zooming factor) 및 카메라 뷰(view) 위치의 변화시, 그리고 라이팅 조건의 변화에 따른 이미지 콘트라스트의 변화시에도 견실하게 이동체를 추종할 수 있는 오토 포커싱 방법을 제공하는 것을 그 목적으로 한다.
아울러, 본 발명에 의한 오토 포커싱 알고리즘은 이동체의 대상 변경을 신속하게 처리할 수 있으며, 모바일 폰과 같은 소형의 디바이스에도 하드웨어적으로도 최적으로 적용 가능한 오토 포커싱 방법을 제공하는 것을 그 목적으로 한다.
한편, 본 발명에 의한 오토 포커싱 알고리즘은 이상과 같은 주요 목적을 염두에 두고 창안된 것이지만 반드시 이에 한정되는 것은 아니며, 이러한 구체적인 목적에 대한 기재가 후술하는 본 발명의 구성으로부터 창출되거나 예측 가능한 새로운 목적 및 효과를 배제하는 것은 아님에 주의하여야 한다.
이러한 해결 과제를 달성하기 위하여, 본 발명에 의한 오토 포커싱 방법은, 소정의 이미지 내에서의 이동체(moving object)에 대한 오토 트랙킹(auto tracking)을 위하여 사용자의 입력에 의하여 선택되는 하나의 중심 포인트; 상기 중심 포인트를 감싸도록 설정된 오토 포커싱 영역; 및 상기 오토 포커싱 영역을 감싸도록 주위에 설정된 트랙킹 서브 영역을 포함하여 상기 중심 포인트, 오토 포커싱 영역 및 트랙킹 서브 영역이 함께 상기 이동체를 추종하고, 상기 이동체의 이동에 따라서 상기 오토 포커싱 영역의 위치를 변화시키고 상기 트랙킹 서브 영역의 위치를 업데이트하도록 구성되며, 상기 오토 트랙킹을 위한 이동체가 이미지의 에지부로부터 벗어나고 있는 경우, 상기 트랙킹 서브 영역의 에지부는 상기 이미지의 에지부와 일치된 상태로 유지됨과 동시에 상기 트랙킹 서브 영역 내부의 오토 포커싱 영역만이 상기 트랙킹 서브 영역 내에서 상기 이동체를 추종하도록 상기 이미지의 에지부를 향하여 이동하며, 상기 오토 트랙킹을 위한 이동체가 이미지의 에지부로부터 완전히 벗어나 상기 오토 포커싱 영역만이 상기 트랙킹 서브 영역 내에서의 이동에 의하여 상기 이미지의 에지부에 도달한 경우에도, 상기 오토 포커싱 영역과 트랙킹 서브 영역은 모두 상기 이미지의 에지부에서 유지되도록 구성되는 것을 특징으로 한다.
여기서, 상기 이동체를 추종하는 단계는, a) 상기 트랙킹 서브 영역 주위로 서브 이미지를 커팅하는 단계; b) 가우시안 함수(Gaussian Function)로 컨볼빙(convolving)함에 의하여 전 후 프레임에서의 서브 이미지들을 스무 딩(smoothing)하는 단계; c) 상기 가우시안의 도함수(derivative)로 컨볼빙함에 의하여 상기 전후 서브 이미지들의 기울기(gradient)를 계산하는 단계; 및 d) 새로운 중심 포인트의 위치를 발견하도록 반복(iteration)하는 단계를 포함하는 것을 특징으로 한다.
그리고, 상기 이동체의 추종은, 단지 하나의 픽셀만큼만 상기 중심 포인트가 이동할 경우, 또는 상기 반복 단계가 미리 설정된 한계치를 초과할 경우, 또는 상기 중심 포인트가 경계 외부에 위치되는 경우에 그 추종 프로세스를 정지하는 것을 특징으로 한다.
또한, 상기 하나의 중심 포인트는 터치 패드 방식으로 사용자에 의하여 입력되는 것이 바람직하다.
이하, 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.
알고리즘
도 1에 도시된 바와 같이, 본 발명에 의한 오토 포커싱은, 크게 3개의 영역에 의하여 수행된다.
이들 3개의 영역은, 소정의 이미지(10) 내에서의 이동체(moving object; 20) 에 대한 오토 트랙킹(auto tracking)을 위하여 사용자의 입력에 의하여 선택되는 하나의 중심 포인트(area of interest central point; 11)와, 상기 중심 포인트(11)를 감싸도록 설정된 오토 포커싱 영역(auto fucusing area; 13), 및 상기 오토 포커싱 영역(13)을 감싸도록 주위에 설정된 트랙킹 서브 영역(tracking sub-window; 12)로 구성된다.
하나의 중심 포인트(11)는 이동체(20)의 트랙킹을 위하여 사용자에 의하여 선택되는 영역이다.
이러한 하나의 중심 포인트(11)는 종래기술에서와는 달리 터치 패드 방식으로 사용자에 의하여 입력되는 것이 바람직한데, 터치 패드 방식에 의하여 이동체의 대상 선택 및 변경에 신속하게 대처할 수 있으며, 모바일 디바이스와 같은 소형의 디바이스에 보다 적합한 대상체 선택 수단이 된다.
오토 포커싱 영역(13)은 선택된 중심 포인트를 기준으로 포커싱 프로세스를 수행하는 영역에 해당한다.
한편, 본 발명에 있어서는 오토 포커싱 영역(13) 이외에 이를 둘러싸는 영역인 트랙킹 서브 영역(12)을 더 포함하는 것을 그 기술적 특징 중 하나로 하고 있다. 이러한 트랙킹 서브 영역(12) 내에서만 이미지 프로세싱을 수행하므로 메모리 사용과 계산량을 감소 효과가 발생하며, 특히 모바일 폰과 같은 소형 디바이스에 더욱 적합하게 사용되기 위하여 채택된 구성일 뿐만 아니라, 후술하는 데이터 유지 측면에서 필수적인 구성이라 할 것이다. 통상적으로 초당 30 프레임을 프로세싱하기 때문에 관심 영역은 프레임들 사이에서 큰 거리로 시프트되지 않으며, 만약 두 프레임 사이의 최대 시프트가 이미지의 20%일 경우 최대 20배만큼 계산량을 감소시킬 수 있고 이에 소요되는 메모리는 5배만큼 감소시킬 수 있다.
도 2a에서 확인되는 바와 같이, 앞서 설명한 중심 포인트(11), 오토 포커싱 영역(13) 및 트랙킹 서브 영역(12)이 함께 소정의 전체 이미지(10) 내에서 이동체(20)를 트랙킹하고, 이동체(20)의 이동에 따라서 상기 오토 포커싱 영역(13)의 위치를 변화시키고 상기 트랙킹 서브 영역(12)의 위치를 업데이트한다.
이동체(20)의 이동에 있어서, 도 2b에서와 같이 오토 트랙킹을 위한 이동체(20)가 소정의 전체 이미지(10)의 우측 에지부로부터 벗어나고 있는 경우, 트랙킹 서브 영역(12)의 에지부는 이미지(10)의 에지부와 일치된 상태로 유지되는 반면 트랙킹 서브 영역(12) 내부의 오토 포커싱 영역(13)만이 상기 트랙킹 서브 영역(12) 내에서 이동체(20)를 계속 추종하도록 이미지(10)의 에지부를 향하여 우측으로 이동하게 된다.
도 2c에서와 같이, 만약 오토 트랙킹을 위한 이동체(20)가 이미지(10)의 에지부로부터 우측으로 완전히 벗어나 (가령, 화면에서 이동체가 사라질 경우) 오토 포커싱 영역(13)만이 트랙킹 서브 영역(12) 내에서의 이동에 의하여 전체 이미지(10)의 에지부에 도달한 경우에도, 오토 포커싱 영역(13)과 트랙킹 서브 영역(12)은 모두 이미지(10)의 에지부에서 계속 유지되도록 구성된다.
즉, 통상적으로 종래 기술에 있어서는 피사체가 소정의 이미지 내에서 이동하여 소정의 이미지 영역을 이탈하는 경우 (가령, 피사체가 이미지 밖으로 이동하여 사라질 경우) 기존의 추종되던 피사체에 대한 정보가 손실되는데 비하여, 본 발 명에서는 이러한 경우에 있어서도 오토 포커싱 영역(13)과 트랙킹 서브 영역(12) 모두가 해당 이미지의 에지부에서 계속 유지되도록 구성됨에 의하여 이동체에 대한 트랙킹 데이터가 계속 유지되어 피사체를 안정되게 추종할 수 있도록 한다.
이하, 임의의 환경에서도 이동체를 견실하게 추종하는 본 발명에 의한 이동체의 추종에 대한 프로세싱 단계를 설명하도록 한다.
먼저, 트랙킹 서브 영역(12) 주위로 서브 이미지를 커팅한다.
다음, 커팅된 시간상 전후(n, n+1)의 프레임에서의 서브 이미지들을 아래 수식 1인 가우시안 함수(Gaussian Function)로 컨볼빙(convolving)에 의하여 스무딩(smoothing)하게 된다.
Figure 112008085506893-pat00001
초기 영상의 스무딩을 위해, σ=0.1을 사용한다. 그리고 서브 이미지 다운 스케일(downscale)을 위해, σ=0.9를 사용한다.
예로 σ=0.8에 대한 샘플 가우시안 매트릭스(Matrix)는 아래와 같다.
Figure 112008085506893-pat00002
그 다음, 가우시안의 도함수(derivative)로 컨볼빙함에 의하여 상기 전후 서브 이미지들의 기울기(gradient)를 계산하게 된다.
여기서, 가우시안의 도함수는 실제 적용된 값의 함수들(real valued functions)이다.
그리고 1차원에서, 아래 수식 2와 같이, 가우시안의 도함수는 다항식(polynomial)과 가우시안의 결과와 같은 특징을 가진다.
Figure 112008085506893-pat00003
도 8은 x축의 가우시안 함수와 y축의 가우시안 함수의 두 개 도함수를 구성하는 가우시안의 도함수를 나타내는 도면이다.
도 8과 같이 각각의 영역에서, 이 함수들은 경향이 있는 특정 부분에서 증가(흰색)와 감소(검은색)로 일부가 아주 작게 변한다.
마지막으로, 새로운 중심 포인트의 위치를 발견하도록 반복(iteration)하는 단계를 거치게 된다.
반복의 순서는 아래와 같은 특징을 가지고 있다.
1. 평균적으로 5회 반복으로 충분하며 추천할 만 하다.
2. 첫번째 반복(k=1)에서, 초기 추정(Guess)은 앞 프레임들(frames)의 추적을 기반으로 움직임을 예측함에 의해 설정된다.
3. 가우시안 함수와 가우시안 도함수 필터들에 의해 회전, 잡음, 줌 요소 그리고 디포커싱(defocusing)에 대해 변하지 않는 영상 디스플레이(displacement) 계산 방법을 얻기 위해 영상 구조를 얻는다.
4. 각각의 반복은 각각의 레벨(level)(다운스케일 4개 요소를 가진 2 레벨을 사용한다)을 위해 디스플레이 영상을 최소화한다. 큰(big) 영상 시프트(shift) 검출을 위해 레벨을 다운스케일하고 정확한 시프트 검출을 위해 초기 크기를 다운스케일 한다.
한편, 상기 이동체의 추종에 관한 계산은, 단지 하나의 픽셀만큼만 상기 중심 포인트가 이동할 경우, 또는 상기 반복 단계가 미리 설정된 한계치를 초과할 경우, 또는 상기 중심 포인트가 경계 외부에 위치되는 경우에 정지하는 것이 바람직하다.
이상과 같은 트랙킹 서브 영역의 설정 및 이동체 트랙킹 프로세싱에 의하여 본 발명은 다음과 같은 효과를 창출하게 되며 이를 관련 도면인 도 3 내지 도 5를 참조하여 설명하도록 한다.
먼저, 도 3은 이미지 포커싱이 지속적으로 변화될 경우의 본 발명에 의한 트랙킹 성능을 나타낸다.
즉, 촛점화된 이미지 생성을 위하여 렌즈의 위치가 변화하여 도 3b 내지 도 3d에서와 같이 이미지가 디포커싱되고 있는 경우에도, 이동체(20)에 대하여 사용자에 의하여 입력 선택된 하나의 중심 포인트(11)와 오토 포커싱 영역(13) 및 트랙킹 서브 영역(12)은 관심 대상인 이동체를 안정되게 추종하고 있음을 알 수 있다.
또한, 도 4는 줌 팩터(zooming factor) 및 카메라 뷰(view) 위치의 변화시 본 발명에 의한 트랙킹 성능을 나타낸다.
즉, 촬영을 준비하고 있는 동안, 사용자는 줌 인 또는 줌 아웃과 같은 이미지 줌 팩터를 변화시킬 수 있고 또한 카메라의 뷰 위치를 변경할 수도 있다. 본 발명에 의할 경우, 이러한 상황에서도 도 4a 내지 도 4c에서와 같이 이동체(20)에 대하여 사용자에 의하여 입력 선택된 하나의 중심 포인트(11)와 오토 포커싱 영역(13) 및 트랙킹 서브 영역(12)은 관심 대상인 이동체를 잘 추종하고 있음을 알 수 있다.
아울러, 도 5는 라이팅(lighting) 조건의 변화에 따른 이미지 콘트라스트(image contrast)의 변화시 본 발명에 의한 트랙킹 성능을 또한 나타낸다.
즉, 현재의 라이팅 조건에 적합하도록 카메라를 조정하는 동안에 이미지 콘트라스트가 변화할 수 있다. 본 발명에 의할 경우, 이러한 상황에서도 도 5a 및 도 5b에서와 같이 이동체(20)에 대하여 사용자에 의하여 입력 선택된 하나의 중심 포인트(11)와 오토 포커싱 영역(13) 및 트랙킹 서브 영역(12)은 관심 대상인 이동체를 견실하게 추종하고 있음을 알 수 있다.
시스템
앞서 설명한 본 발명의 기술적 특징인 알고리즘이 인스톨된 오토 포커싱 시스템은, 도 6에 도시된 바와 같이, 크게 렌즈 유닛(100), 트랙킹 유닛(200), 오토 포커싱 영역 선택 유닛(300) 및 오토 포커싱 콘트롤러(400)으로 구성된다.
먼저, 오토 포커싱 영역 선택 유닛(300)은 사용자로부터 관심 영역에 대한 입력을 받는 수단이다. 본 발명은 "터치 패드 방식"에 의하여 사용자가 관심 영역을 입력하도록 구성된다.
이러한 오토 포커싱 영역 선택 유닛(300)으로부터 입력된 관심 영역은 오토 포커싱 콘트롤러(400)로 입력된다. 오토 포커싱 콘트롤러(400)는 앞서 알고리즘 부분에서 이미 설명된 바와 같이 소정의 이미지(10) 내에서의 이동체(20)에 대한 오토 트랙킹을 위하여 사용자의 입력에 의하여 선택되는 중심 포인트(11)와, 상기 중심 포인트(11)를 감싸도록 설정된 오토 포커싱 영역(13), 및 상기 오토 포커싱 영역(13)을 감싸도록 주위에 설정된 트랙킹 서브 영역(12)을 설정하게 된다.
트랙킹 유닛(200)은 사용자가 지정한 관심 영역에서의 피사체의 이동을 화면상으로 각각 추종하면서 그 피사체를 트랙킹하고 오토 포커싱 영역의 위치를 자동으로 이동시키기 위한 장치에 해당한다. 이러한 트랙킹 유닛(200)은 이미지 입력 부(201)로부터 입력받은 이미지를 이미지 프로세싱부(202)에서 오토 포커싱 영역을 설정 및 업데이트한다. 이러한 오토 트랙킹 기능은 트랙킹 활성화 수단(203)에 의하여 작동 여부가 결정된다.
렌즈 유닛(100)은 트랙킹 유닛(200)에 의하여 추종된 관심 영역에 대하여 포커싱된 이미지로 촬영을 가능하게 한다. 트랙킹된 오토 포커싱 영역이 오토 포커싱 입력부(103)로 입력되고 오토 포커싱 프로세싱부(104)에서 오토 포커싱에 대한 데이터가 계산된다. 이를 기초로 하여 렌즈 활성화 콘트롤러(105)에 의하여 포커싱을 위한 렌즈부(미도시)의 위치를 설정 및 제어하게 된다.
도 7은 앞서 설명한 관심 영역에 대한 오토 포커싱 시스템에서 수행하는 작동을 나타내는 순서도이다.
도 7에 도시된 바와 같이, 먼저 디폴트 오토 포커싱 영역 설정치가 오토 포커싱 영역 콘트롤러(400)로 입력되고 오토 트랙킹 기능이 활성화되었는지 여부를 판단한다(s10).
오토 트랙킹이 활성화된 경우, 다음 프레임(next frame)에서의 오토 포커싱 영역을 트랙킹한 다음(s20) 오토 포커싱 영역에 대한 정보를 업데이트한다(s40).
그 후, 사용자의 입력이 검출되지 않을 경우(s50), 렌즈 활성화 콘트롤러(105)로 오토 포커싱 영역 정보를 전송한 후(s60) 렌즈를 콘트롤하게 된다.
한편, 추종 영역에 대한 판단(s30)에 의하여 만약 추종할 영역이 없을 경우에는 사용자로 하여금 오토 포커싱 영역을 선택하도록 한 후 사용자에 의하여 선택된 영역은 다시 오토 포커싱 영역 콘트롤러(400)로 입력되고, 앞서 설명한 s10 내 지 s60 단계가 반복적으로 수행된다.
이상에서 설명된 내용은 본 발명의 바람직한 실시예의 형태로 제공되었으므로, 당해 기술 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해하여야 할 것이다. 따라서, 본 발명의 권리 범위는 개시된 실시예에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
도 1은 본 발명에 의한 오토 포커싱 방법에 사용되는 하나의 중심 포인트와 오토 포커싱 영역 및 트랙킹 서브 영역을 나타내는 도면.
도 2는 본 발명에 의한 오토 포커싱 방법에 사용되는 하나의 중심 포인트와 오토 포커싱 영역 및 트랙킹 서브 영역의 작동을 예시적으로 나타내는 도면.
도 3은 이미지 포커싱이 지속적으로 변화될 경우의 본 발명에 의한 트랙킹 성능을 나타내는 도면.
도 4는 줌 팩터 및 카메라 뷰 위치의 변화시 본 발명에 의한 트랙킹 성능을 나타내는 도면.
도 5는 라이팅 조건의 변화에 따른 이미지 콘트라스트의 변화시 본 발명에 의한 트랙킹 성능을 나타내는 도면.
도 6은 본 발명에 의한 오토 포커싱 시스템의 블록도.
도 7는 도 6에 의한 시스템의 작동 순서도.
도 8은 x축의 가우시안 함수와 y축의 가우시안 함수의 두 개 도함수를 구성하는 가우시안의 도함수를 나타내는 도면.
* 도면의 주요 부호에 대한 설명*
10: 이미지 11: 중심 포인트
12: 트랙킹 서브 영역 13: 오토 포커스 영역
20: 이동체

Claims (4)

  1. 오토 포커싱 방법에 있어서,
    소정의 이미지 내에서의 이동체(moving object)에 대한 오토 트랙킹(auto tracking)을 위하여 사용자의 입력에 의하여 선택되는 하나의 중심 포인트;
    상기 중심 포인트를 감싸도록 설정된 오토 포커싱 영역; 및
    상기 오토 포커싱 영역을 감싸도록 주위에 설정된 트랙킹 서브 영역;
    을 포함하여 상기 중심 포인트, 오토 포커싱 영역 및 트랙킹 서브 영역이 함께 상기 이동체를 추종하고, 상기 이동체의 이동에 따라서 상기 오토 포커싱 영역의 위치를 변화시키고 상기 트랙킹 서브 영역의 위치를 업데이트하도록 구성되며,
    상기 오토 트랙킹을 위한 이동체가 이미지의 에지부로부터 벗어나고 있는 경우, 상기 트랙킹 서브 영역의 에지부는 상기 이미지의 에지부와 일치된 상태로 유지됨과 동시에 상기 트랙킹 서브 영역 내부의 오토 포커싱 영역만이 상기 트랙킹 서브 영역 내에서 상기 이동체를 추종하도록 상기 이미지의 에지부를 향하여 이동하며, 상기 오토 트랙킹을 위한 이동체가 이미지의 에지부로부터 완전히 벗어나 상기 오토 포커싱 영역만이 상기 트랙킹 서브 영역 내에서의 이동에 의하여 상기 이미지의 에지부에 도달한 경우에도, 상기 오토 포커싱 영역과 트랙킹 서브 영역은 모두 상기 이미지의 에지부에서 유지되도록 구성되며,
    상기 이동체를 추종하는 단계는,
    a) 상기 트랙킹 서브 영역 주위로 서브 이미지를 커팅하는 단계;
    b) 다음 수식에 의한 가우시안 함수(Gaussian Function)로 컨볼빙(convolving)함에 의하여 전 후 프레임에서의 서브 이미지들을 스무딩(smoothing)하는 단계
    Figure 112010031800434-pat00004
    ;
    c) 상기 가우시안의 도함수(derivative)로 컨볼빙함에 의하여 상기 전후 서브 이미지들의 기울기(gradient)를 계산하는 단계; 및
    d) 새로운 중심 포인트의 위치를 발견하도록 반복(iteration)하는 단계;
    를 포함하는 것을 특징으로 하는 오토 포커싱 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 이동체의 추종에 대한 계산은,
    - 단지 하나의 픽셀만큼만 상기 중심 포인트가 이동할 경우, 또는
    - 상기 반복 단계가 미리 설정된 한계치를 초과할 경우, 또는
    - 상기 중심 포인트가 경계 외부에 위치되는 경우
    에 정지하는 것을 특징으로 하는 오토 포커스 방법.
  4. 제1항 또는 제3항에 있어서,
    상기 하나의 중심 포인트는 터치 패드 방식으로 사용자에 의하여 입력되는 것을 특징으로 하는 오토 포커스 방법.
KR1020080126221A 2008-12-12 2008-12-12 오토 포커싱 방법 KR100975928B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020080126221A KR100975928B1 (ko) 2008-12-12 2008-12-12 오토 포커싱 방법
CN2009102531930A CN101750845B (zh) 2008-12-12 2009-12-14 自动聚焦方法
US12/654,200 US7995909B2 (en) 2008-12-12 2009-12-14 Auto-focusing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080126221A KR100975928B1 (ko) 2008-12-12 2008-12-12 오토 포커싱 방법

Publications (2)

Publication Number Publication Date
KR20100067710A KR20100067710A (ko) 2010-06-22
KR100975928B1 true KR100975928B1 (ko) 2010-08-13

Family

ID=42366266

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080126221A KR100975928B1 (ko) 2008-12-12 2008-12-12 오토 포커싱 방법

Country Status (1)

Country Link
KR (1) KR100975928B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101694421B1 (ko) * 2010-11-11 2017-01-09 삼성전자주식회사 카메라를 구비한 휴대 단말기의 연속 자동 초점 조절 방법 및 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05145822A (ja) * 1991-03-26 1993-06-11 Olympus Optical Co Ltd 動体追尾装置
JPH11136568A (ja) * 1997-10-31 1999-05-21 Fuji Photo Film Co Ltd タッチパネル操作式カメラ
KR20080002667A (ko) * 2006-06-30 2008-01-04 가시오게산키 가부시키가이샤 촬상장치 및 컴퓨터 판독 가능한 기록매체

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05145822A (ja) * 1991-03-26 1993-06-11 Olympus Optical Co Ltd 動体追尾装置
JPH11136568A (ja) * 1997-10-31 1999-05-21 Fuji Photo Film Co Ltd タッチパネル操作式カメラ
KR20080002667A (ko) * 2006-06-30 2008-01-04 가시오게산키 가부시키가이샤 촬상장치 및 컴퓨터 판독 가능한 기록매체

Also Published As

Publication number Publication date
KR20100067710A (ko) 2010-06-22

Similar Documents

Publication Publication Date Title
JP6271990B2 (ja) 画像処理装置、画像処理方法
US7995909B2 (en) Auto-focusing method
US9596398B2 (en) Automatic image capture
EP2357788B1 (en) Autofocus with confidence measure
US8045046B1 (en) Four-dimensional polynomial model for depth estimation based on two-picture matching
JP5395678B2 (ja) 距離マップ生成型マルチレンズカメラ
JP4664379B2 (ja) 画像データ処理用の電子デバイス及び画像データ処理方法
JP5374119B2 (ja) 距離情報取得装置、撮像装置、及びプログラム
TWI515470B (zh) 使用多鏡頭的自動對焦系統及其方法
CN104038691A (zh) 自动聚焦方法及自动聚焦装置
CN107800951B (zh) 电子装置及其镜头切换方法
JP2012124555A (ja) 撮像装置
EP3593319A2 (en) Optical flow and sensor input based background subtraction in video content
CN111756989A (zh) 控制镜头对焦的方法及装置
KR20160079106A (ko) 이미징 기기 및 이미징 기기에서의 자동 초점맞춤 방법과 대응하는 컴퓨터 프로그램
CN112738397A (zh) 拍摄方法、装置、电子设备及可读存储介质
JP2006091915A (ja) 撮像装置
TW201541143A (zh) 使用多鏡頭的自動對焦系統及其方法
JP2010154306A (ja) 撮像制御装置、撮像制御プログラム及び撮像制御方法
JP6645711B2 (ja) 画像処理装置、画像処理方法、プログラム
KR100975928B1 (ko) 오토 포커싱 방법
JP2013042375A (ja) 撮像装置および距離情報取得方法
CN114244999B (zh) 自动对焦的方法、装置、摄像设备及存储介质
KR100975929B1 (ko) 오토 포커싱 방법
KR20100115574A (ko) 디지털 카메라 및 그 제어방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130624

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140701

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150707

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160701

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee