KR100910361B1 - 디지털 이미지화의 노출 - Google Patents

디지털 이미지화의 노출 Download PDF

Info

Publication number
KR100910361B1
KR100910361B1 KR1020077017290A KR20077017290A KR100910361B1 KR 100910361 B1 KR100910361 B1 KR 100910361B1 KR 1020077017290 A KR1020077017290 A KR 1020077017290A KR 20077017290 A KR20077017290 A KR 20077017290A KR 100910361 B1 KR100910361 B1 KR 100910361B1
Authority
KR
South Korea
Prior art keywords
exposure
frp
frc
image
variance
Prior art date
Application number
KR1020077017290A
Other languages
English (en)
Other versions
KR20070097552A (ko
Inventor
자르노 니카넨
오씨 칼레보
Original Assignee
노키아 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 노키아 코포레이션 filed Critical 노키아 코포레이션
Priority to KR1020077017290A priority Critical patent/KR100910361B1/ko
Publication of KR20070097552A publication Critical patent/KR20070097552A/ko
Application granted granted Critical
Publication of KR100910361B1 publication Critical patent/KR100910361B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 설정 노출 파라미터들(ET,AG,DG)을 사용하여 이미지 프레임들(FRp,FRc)을 형성하는 카메라 수단(CAM), 상기 이미지 프레임들의 적어도 일부로부터 상기 노출의 전체 노출 수준(EV)을 결정하는 전체 노출 수준 결정 수단, 상기 노출의 결정된 전체 노출 수준에 기반하여 상기 노출 파라미터들을 조절하는 노출 파라미터들의 조절 수단을 포함하여 이미지화를 수행하는 전차 장치(10)에 관한 것이다. 추가적으로, 상기 장치(10)는 상기 이미지 프레임들의 적어도 일부로부터 움직임을 검출하는 움직임 검출 수단(13)을 포함한다. 상기 장치에서, 상기 노출 파라미터들은 상기 노출의 전체 노출 수준과 상기 검출된 움직임에 기반하여 조절되도록 구성된다.
Figure R1020077017290
이미지화, 노출

Description

디지털 이미지화의 노출{Exposure of digital imaging}
본 발명은
- 설정 노출 파라미터를 사용하여 이미지 프레임들을 형성하는 카메라 수단,
- 상기 이미지 프레임들의 적어도 일부로부터 노출의 전체 노출 수준을 결정하는 전체 노출 수준을 결정하는 수단, 및
- 상기 노출의 결정된 전체 노출 수준에 기반하여, 상기 노출 파라미터들을 조절하는 노출 파라미터들의 조절 수단을 포함하여 이미지화를 수행하기 위한 전자 장치와 관련된다.
추가적으로, 또한 본 발명은 대응하는 방법, 시스템, 및 프로그램 생성물에 대한 것이다.
움직이는 물체들의 스틸(still) 또는 비디오 이미지화를 수행할 때, 예를 들어, 저조명(예를 들어, 실내에서 아이들을 촬영할 때)에서, 이미지는 움직임에 의해 야기되는 흐릿화 및 장시간 노출 때문에 자주 왜곡된다. 종래 기술에 따른 샷(shot)의 예가 도8d에 도시되었으며, 정지 물체는 카메라를 수직으로 이동시킴으로써 이미지화된다.
종래 기술에서, 샷의 전체 노출은 노출 시간과 아날로그 및 디지털 이득을 사용하여 결정된다. 조리개의 크기가 조절가능한 유형이라면 이 또한 조절될 수 있다. 그러나, 특히 이동 장치들은 조리개를 조절하는 가능성이 부족하다. 조명이 낮을수록 더 장시간의 노출시간이 요구된다. 불행히도, 장시간 노출은 움직이는 물체에 의해 야기되는 흐릿화와 슈팅(shooting) 순간에/ 이미지화 할 때 카메라 떨림을 증가시킬 것이다. 아날로그 이득이 요구되는 노출 시간의 일부에 대하여 보상하도록 사용될 수 있다. 이 경우에, 예를 들어, 두 배의 아날로그 이득은 필요한 노출 시간을 반으로 줄일 것이나, 동시에 노이즈 수준은 증가할 것이다.
아날로그 이득은 이미지에서 이미 생성된 노이즈를 증폭시킨다. 그럼에도 불구하고 그것은 이미지 포착과 관련하여 발생하는 양자화 노이즈를 감소시키기 위해 사용될 수 있으며, 최악의 경우에 이미지로부터 전체 손실 수준으로서 나타난다. 아날로그 이득과 함께 사용되는 디지털 이득은 실제로 이미지에 추가적인 정보를 주지 않는다. 디지털 이득은 사용된 노출 시간과 아날로그 이득의 결과인 이미지 신호와 노이즈를 단지 단순히 증폭한다. 추가적으로 아날로그 이득들을 사용하는 가능성들과 노출 시간들, 및 그것들의 실행 가능성은 센서마다 달라진다.
종래 기술에 따른 AEC(Automatic Exposure Control) 방법에서, 디지털 카메라의 AEC 모드는, 최대의 경우라도, 아날로그 이득의 노이즈 수준이 방해 수준에 도달하는 것을 막을 수 있는 정도의 양 만큼만 아날로그 이득을 사용하도록 하는 방식으로 노출 시간을 전형적으로 설정한다. 저조명 조건에서, 이것은 특히 움직이는 물체들의 경우에는 심각한 흐릿화를 야기한다(문제가 나타나는 조명의 실제 수준은 카메라 센서의 특성들에 의존한다). 상당한 양의 움직임 흐릿화(motion- blurring)는 아날로그 이득의 사용으로부터 발생하는 노이즈보다도 훨씬 더 이미지에서 세부적인 것들을 파괴할 것이다.
여러 카메라 장치들로부터 사용자가 선택가능한 노출 프로그램들의 상이한 종류들이 종래 기술로 알려져 있으며, 만약 상기 프로그램이 위에서 상술한 유형의 난해한 노출 조건들(예를 들어 움직이는 물체들의 이미지화를 위해)에 대하여 의도된다면, 이것은 예를 들어 노출의 "스포츠 프로그램들"로 불릴 수 있다. 이 경우에, 더 큰 아날로그/디지털 이득이 움직임 흐릿화를 예방하기 위해 허용될 수 있고, 그러면 노출 시간들은 더 짧게 유지된다. 그러나 스포츠 프로그램은, 예를 들어 밝은 조명 조건들에서, 또는 저조명 조건들에서, 움직이는 물체들이 없는 경우에, 불필요하게 높은 수준의 노이즈를 야기할 수 있기 때문에, 디폴트 프로그램으로서 사용될 수 없다.
완전히 수동으로 조절되는 노출 프로그램들 또한 알려져 있다. 이 경우에, 최종 사용자는 정확한 노출 시간과 (전통적 카메라들로부터 유래한 이름인 ISO 셋팅으로 전형적으로 불리는) 아날로그 이득을 선택할 수 있어서, 움직임 흐릿화와 노이즈 사이에서 타협할 수 있다.
플래쉬 조명 또한 스틸 이미지의 경우에 있어서 문제를 해결하기 위한 수단으로서 사용될 수 있으나, 이것은 비디오에 적용될 수는 없다. 추가적으로, 어떤 디지털 카메라들과 특히 디지털 카메라들을 장착한 이동 단말기들은 공간/가격/전력 소비를 고려하기 때문에 플래쉬 조명으로는 완전히 부족하다.
본 발명은 종래 기술의 방법들과 비교하여, 이미지화하는 물체 및/또는 카메 라의 움직임에 의해 야기되는 흐릿화를 예방하거나 적어도 감소시킴으로써 디지털 이미지화에 있어서 노출을 조절하는 방식을 만드는 것에 대한 것이다. 특히 본 발명은 제한된 프로세싱 성능을 구비한 장치들 내의 애플케이션에 대하여 적합하다. 본 발명에 따른 장치의 특징적 특성들은 첨부된 청구항 제1항에서 설명되며, 반면에 방법에 대한 특징적 특성들은 청구항 제7항에서 설명된다. 추가적으로, 또한 본 발명은 첨부된 청구항 제14항 및 제20항에서 설명된 특징적 특성인 대응하는 프로그램 생성물 및 시스템에 대한 것이다.
본 발명에 따라 이미지화를 수행하는 전자 장치는
- 설정 노출 파라미터를 사용하여 이미지 프레임들을 형성하는 카메라 수단,
- 상기 이미지 프레임들의 적어도 일부로부터 노출의 전체 노출 수준을 결정하는 상기 전체 노출 수준을 결정하는 수단, 및
- 상기 노출의 결정된 전체 노출 수준에 기반하여, 상기 노출 파라미터들을 조절하는 노출 파라미터들의 조절 수단을 포함한다.
추가적으로 상기 장치는
- 상기 이미지 프레임들의 적어도 일부로부터 움직임을 검출하는 움직임 검출 수단을 포함한다.
상기 장치에서, 노출 파라미터들은 상기 노출의 전체 노출 수준과 상기 검출된 움직임에 기반하여 조절되도록 구성된다.
예를 들어, 이미지 프레임들을 비교함으로써 움직임이 검출될 수 있다. 일 실시예에 따라, 이미지 프레임들의 전체 이미지 영역(area)의 적어도 일부는 설정 방식으로 구역들(regions) 및 편차(variance)로 나뉠 수 있고, 또한 픽셀값들의 변화를 나타내는 어떤 다른 양이 상기 구역들에 대하여 정의될 수 있다. 동일하게, 예를 들어 전체 노출 수준을 결정하기 위해 사용되는 이미 수집된 픽셀 데이터가 편차의 계산에 적용될 수 있다. 이미지 프레임들에 대응하는 영역들의 편차를 서로 비교함으로써, 이미지에 움직임이 있는지를 결정하는 것이 가능하다. 이러한 실행 모델은 장치의 프로세싱 성능의 면에서 효율적이다.
본 발명으로 인하여, 디지털 이미지화에 있어서 노출과 관련된 여러 장점들이 스틸 및 비디오 이미지화의 경우에 달성된다. 일 실시예에 따라, 본 발명에 따른 방법이 완전히 자동화되고 디폴트 기능으로서 장치 내에서 적용될 수 있기 때문에, 제1의 장점으로서, 본 발명은 최종 사용자가 심지어 가장 난해한 이미지화 조건들/상황에서 노출 또는 이미지화에 대한 전문적 지식, 경험, 또는 기술을 필요치 않는 노출 모델을 제공한다. 본 발명에 따라, 수동적 노출 프로그램을 선택하는 것이 더 이상 불필요하며, 대신에 사용자는 현재 조건들 또는 이미지화 습관들을 고려하지 않고 이미지화를 수행할 수 있다. 본 발명은 매우 밝은 조명에서 매우 낮은 조명까지의 범위 조건들에서 자동적으로 기능한다.
제2 실시예에 따라, 본 발명은 예를 들어, 이동 단말기들 또는 디지털 카메라들과 같은 제한된 프로세싱 성능을 구비한 장치에서 실행될 수 있다. 이것은 이미지에서 움직임의 양을 검출하는 뛰어난 "조명(lightness)" 알고리즘에 의해 부분적으로 가능하다. 추가적으로 본 발명은 또한 여러 이미지화 체인들 및 AEC 알고리즘들을 구비한 애플리케이션에 대하여 적합하다.
일 실시예에 따라, 전체 노출 수준은 AEC 알고리즘을 사용하는 이미지화 상황과 관련하여 결정될 수 있다. 일단 전체 노출 수준이 결정되면, 본 발명을 적용하여 상이한 노출 파라미터들 간에 가장 적합한 비율을 결정하는 것이 가능하며, 그 결과 의문시되던 원하는 전체 노출 수준이 얻어질 수 있다.
본 발명에 따른 움직임 표현 때문에, 개시된 해결책은 예를 들어, 노출 시간에 대하여 정적 한계들을 가지는 종래 기술에 따른 수동 '스포츠 모드'를 사용하여 달성되는 것보다 양호한 이미지 품질에 기여한다. 본 발명을 통하여, 노출 시간을 제한하는 수준은 이미지에서 검출되는 움직임의 양과 결합될 수 있고, 결과적으로 아날로그 이득을 생성하는 노이즈의 실질적인 양만이 사용된다. 이것은 특히 저조명에서 중요하다.
본 발명의 다른 특징적 특성들은 첨부된 청구항들로부터 나타나며, 반면에 달성된 추가적 장점들은 실시예 부분에서 설명된다.
아래에 개시된 실시예들에 제한되지 않는 본 발명은 첨부한 도면을 참조하여 더욱 상세히 설명된다.
도1은 본 발명에 따른, 전자 장치의 애플리케이션의 개략적인 예에 대한 블럭도이며,
도2는 전자 장치 내에서 본 발명에 따른 방식으로 노출을 조절하는 본 발명에 따른 프로그램 생성물의 애플리케이션의 예를 도시하며,
도3은 본 발명에 따른 방법의 예시적 예에 대한 개략적인 흐름도이며,
도4a는 본 발명에 따른 방법의 하나의 서브 단계에 대한 애플리케이션의 개략적인 예를 더 자세히 도시하며,
도4b는 본 발명에 따른 방법의 제2 서브 단계에 대한 애플리케이션의 개략적인 예를 더 자세히 도시하며,
도5 내지 도7은 여러 이미지화 상황들에서, 전체 노출의 형성에 대한 애플리케이션들의 여러 예들을 도시하며,
도8a 내지 도8d는 본 발명의 방법에 따라 생성된 이미지 샷들을 종래 기술에 따른 이미지 샷들과 비교한 저조명 이미지화 상황의 이미지 콜라주(collage)들을 도시하며,
도9a 내지 도9d는 본 발명의 방법에 따라 생성된 이미지 샷들을 종래 기술에 따른 이미지 샷들과 비교한 밝은 조명 이미지화 상황의 이미지 콜라주들을 도시한다.
도1은 아래에서 설명되는 본 발명에 기반하여, 본 발명에 따른 전자 장치(10)의 애플리케이션의 개략적인 예에 대한 블럭도를 도시한다. 추가적으로, 도2는 본 발명에 따른 프로그램 생성물(30)의 예를 도시하는데, 이것은 저장 매체 MEM과 그것에 저장되는 프로그램 코드(31)를 형성하며, 프로그램 코드(31)에 속하는 코드 수단 31.1 - 31.9는 본 발명에 따른 방법 및 시스템에 그것들을 연결시키기 위해 아래 실시예의 적절한 부분에서 언급된다.
예를 들어, 장치(10)는 스틸 및/또는 비디오 이미지화 성능을 장착한 디지털 카메라, 디지털 비디오 카메라, 이동 기지국, 또는 다른 유사한 스마트 커뮤니케이터(PDA)일 수 있으며, 본 발명과 관계없는 구성요소들은 그에 관하여 더 자세하게 설명되지 않는다. 장치(10) 외에, 또한 본 발명은 장치(10) 내에 있을 수 있는 이미지화 체인 시스템 IC과 관련된다.
본 발명에 따른 장치(10)와 이미지화 시스템은, 모듈의 구성요소로서 그것들에 연결되는 카메라 수단과 디지털 이미지화 체인 IC를 포함할 수 있다. 카메라 수단은 이미지되는 물체로부터 연속적 이미지 프레임들 FR0 - FR4를 형성하기 위해 사용될 수 있는, 알려진 이미지 센서 CAM과 렌즈들의 세트를 포함할 수 있다. 이미지 프로세싱 체인 IC는 예를 들어, 이미지 센서 CAM에 의해 이미지화에 사용되는 파라미터들(ET, AG, DG)을 저장하기 위해 실제 이미지화하기 전에(스틸-이미지화/하프프레스(halfpress)) 그리고/또는 실제 이미지화가 저장되는 동안에 (비디오 이미지화) 조절하기 위해 사용되는 모듈들을 포함할 수 있다. 양자의 경우에, 저장을 위한 이미지화가 장치(10)을 사용하여 그 순간에 수행되든지, 그렇지 않던지 간에 소위 뷰파인더(viewfinder) 이미지화가 실행될 수 있고, 그 장치(10)는 그것을 위해 전용 모듈 VF를 가질 수 있다. 본 발명의 문맥에서, 이러한 모듈 전체는 AEC 제어 회로로서 이해될 수 있다.
이미지 프로세싱 체인 IC는 본 발명에 의해 요구되는 프로세싱/조절 기능들이 구성되는 하나 또는 그 이상의 프로세싱 회로들/ DSP CPU로 구성될 수 있다. 당해 기술에 정통한 자에게, 그것들의 기술적 실행은 자명할 것이며, 이에 대한 이러 한 이유 때문에, 본 발명은 명확화를 위해 매우 개략적인 블럭도 수준에서 설명되었다. 본 발명의 실제 실행의 관점으로부터, 동등한 하드웨어와 소프트웨어 해결책들이 문제될 것이며, 양자의 조합도 마찬가지이다. 추가적으로 하나의 회로는 여러 임무들을 취급할 수 있으며, 물론 이 또한 자명하다.
모듈인, 이미지 프로세싱 체인 IC는 전체 노출 수준 EV를 결정하는 수단(11, 31.1)을 포함한다. 이것들은 카메라 센서 CAM을 사용하여 형성된 이미지 프레임들 FR0 - FR4...로부터 노출의 전체 노출 수준 EV을 결정하기 위해 사용될 수 있다. 이미지 센서 CAM을 사용하여 형성된 각 이미지 FR0 - FR4...에 대한 결정을 수행할 수 없거나, 그럴 가치가 없거나, 또는 수행할 필요가 없을 수 있으며, 대신에 그것은 프레임들의 일부만으로부터 수행될 수 있다. 그러나 상기 결정에서 사용된 프레임들은 조건들을 고려하여 가능한 한 연속적이어야 한다. 이것은 바로 밑의 실시예에서 다시 설명할 것이다. 예를 들어, 알려져 있거나 아직 개발 중에 있는 결정의 어떤 방식들이 전체 노출 EV의 결정에 사용될 수 있다. 이러한 것 중 일 예는 당해 출원인의 PCT 특허 출원 PCT/2004/050091에 개시되었다.
본 발명에 따라 장치(10) 내의 시스템 체인 IC에 속하는 다른 뛰어난 모듈은 움직임 감지 수단(13, 31.3)일 수 있다. 모듈(13, 31.3)은 이미지 센서 CAM을 사용하여 형성된 이미지 프레임들 FR0 - FR4...로부터 움직임을 감지하기 위해 사용될 수 있다. 이러한 경우 역시, 센서 CAM을 사용하여 형성된 모든 프레임들 FR0 - FR4...에 대하여 감지할 필요/가능성이 반드시 필요한 것은 아니며, 대신 그것은 연속적인 프레임들 FRp, FRc에 대한 설정 방식에서 실행될 수 있다. 또한 이러한 경우에, 본 발명은 조건들을 고려하여 프레임들 FRp, FRc이 가능한 한 연속적이어야 한다. 일 실시예에 따라, 움직임 감지를 위해 사용되는 이전의 그리고 현재 프레임 FRp, FRc는 노출의 전체 노출 수준 EV의 결정에서 사용되는 프레임들과 동일할 필요는 없다.
그러나 장치 체인 IC에 속하는 다른 모듈은 노출 파라미터들 ET,AG,DG의 조절 수단(12, 31.2, 31.4, 31.8)일 수 있다. 이 경우에, 노출 파라미터들은, 예를 들어 노출 시간 ET, 아날로그 이득 AG, 디지털 이득 DG일 수 있다. 아날로그 이득 AG와 디지털 이득 DG는 함께 전체 이득 G = AG * DG를 형성한다. 대신에, 이득 AG, DG뿐만 아니라, 조리개 크기 또한 적용될 수 있다. 이득 G를 갖는 조리개 크기의 교체는 당해 기술 분야에서 정통한 자에게 명백할 것이며, 이와 관련하여 더 검토할 필요는 없다. 센서 CAM의 전면을 향하거나, 센서 CAM으로부터 떨어질 수 있는 ND 필터의 애플리케이션 또한 가능하다. 이것은 조명의 양을 감소시키기 위해 사용된다(그 양은 필터에 의존적이다). 모듈(11, 31.1)을 사용하여 결정된 노출의 전체 노출 수준 EV와 모듈(13, 31.3)을 사용하여 검출된 움직임에 기반하여,모듈(12, 31.2, 31.4, 31.8)은 본 발명에 따라 노출 파라미터들 ET,AG,DG를 조절하기 위해 사용될 수 있다.
도3은 디지털 이미지화에서 노출을 조절하기 위해, 본 발명에 따른 방법의 개략적 예시의 개략적 흐름도를 도시한다.
상기 방법의 수행 개시 단계(300) 후에, 디지털 카메라의 센서 CAM을 사용하여 단계 (i)에 따라 연속적으로 미가공 이미지 프레임들 FR0 - FR4...가 포착된다. 다시 말해, 단계 (i)에서, 설정 방식에서 연속적인 이미지 프레임들 FR0 - FR4...이 설정 노출 파라미터들 ET,AG,DG를 사용하여 형성된다.
상기 방법이 개시될 때, 적어도 제1 노출 반복 주기의 노출 파라미터들 ET,AG,DG가 장치(10)의 디폴트 값들로부터 얻어진다. 후속하여, 또는 적어도 몇 번의 노출 주기 후에, 노출 파라미터들 ET,AG,DG가 상기 방법에 따라 수집될 때 현재 이미지화 상황에 적합하게 하기 위해서, 노출 파라미터들 ET,AG,DG가 상기 방법을 사용하여 준비된다.
도시된 상기 방법의 설명에 있어서, 몇 번의 노출 주기들이 이미 수행된 후에 본 발명은 시작된다. 제1 이미지화 주기들에서, 본원에서 도시된 실시예에서 요구되는 요소들(= '이전' 이미지 프레임 FRp로 주로 언급하고, '이전' 이미지 프레임 FRp과 '현재' 프레임 FRc의 비교가 요구되는) 모두가 본 발명의 관점으로부터 반드시 존재하여야 하는 것은 아니기 때문이다. 단일의 수행 주기에서, 본 발명의 움직임 정의들 및 계산들은 상기 방법에 적용되고, 그 순간, 즉 그 주기에 대하여 정확하게 포착되는 마지막 것인 프레임 FRc에 대하여 수행될 수 있다. 이전 주기의 루프에서 프레임 FRp로부터 정의된 인자들(예를 들어, 추후에 더 상세히 설명할 편차)은 예를 들어 움직임의 양을 결정하기 위해서, 그것들이 회수될 수 있는 곳으로부터, 장치(10)의 메모리 MEM에 물론 저장될 수 있다. 추가적으로 센서 CAM이 사용하는 현재 노출 값들(ET,AG,DG) 또한 메모리 MEM 내에 있을 수 있다.
일반적으로, 본 발명에 적용되는 이미지 센서 CAM을 사용하여 형성된 이미지 프레임들 FR0, FR1, FR2, FR3, FR4...는 설정 방식에서 연속적이다. 연속적인 프레 임들 FR0, FR1,...은 단계(i')로 전달되며, 이 단계는 예를 들어 이미지 데이터의 (후:post-) 프로세싱(14)을 포함한다. 포스트 프로세싱은 메모리 MEM에서 이미지 데이터의 저장을 위해 저장되거나, 뷰파인터 VF(도1)로 가져가지는 이미지 데이터 상에서 수행된다. 반면에, 디지털 이득 또한 포스트-프로세싱으로서만 수행될 수 있다.
예를 들어 단위 초당 15-30 프레임들과 같은 통상적인 이미지화 주파수를 적용할 때, 상기 방법에 의해 사용되는 프레임들 또는 특히 그 방법의 여러 서브 단계들(움직임 검출, 노출 수준 검출)에 의해 사용되는 프레임들은 완전히 연속적일 필요는 없으며, 대신에 예를 들어 그들 사이에 몇 개의 프레임들이 존재할 수 있다. 추가적으로, 본 방법의 특정 서브 단계들은 상이한 프레임들을 사용할 수 있다. 사용된 프레임들 FRp(=예를 들어, FR2), FRc(=예를 들어, FR3)의 연속성은 예를 들어 장치(10)의 프로세싱 속도에 의해 지시되며, 반면에 본 발명의 방법에 대한 기본 원리의 요구들에 의해서도 지시되며, 이것은 아래 문단에서 즉시 언급된다.
움직임 검출은 다음의 서브 단계(ii)로서 이미지 프레임으로부터 수행될 수 있다. 이것은 더 자세한 애플리케이션 설명의 형태로 실시예에서 추후에 상세히 설명될 것이다. 움직임은 설정 방식에서 연속적인 이미지 프레임들 FR2, FR3로부터 검출될 수 있다. 서로 바로 뒤따르는 연속적 프레임들 FR2, FR3의 애플리케이션은, 예를 들어 센서의 제한된 판독 속도 또는 매우 높은 이미지 주파수 때문에 본 발명에서 완전히 가능할 필요가 없으며, 또는 요구될 필요도 없다. 그러나 실제에서, 이미지 주파수는 완전한 연속적 프레임들의 사용을 방해할 만큼 높은 것은 아니다. 만약 이미지 주파수가 정말로 높다면, 적절한 움직임이 완전히 연속적인 프레임들로부터 검출될 수 없으며, 대신 몇 개의 프레임들이 현재 프레임 FRc와 이전 프레임 FRp 사이에서 생략되어야 한다. 다른 경우에 있어서, 가능한 한 연속적인 프레임들이 사용될 수 있다(즉, 예를 들어 이것이 센서 CAM으로부터 메모리 MEM까지 데이터의 전송 속도에 의해 제한되지 않으면, 완전히 연속적인 프레임들이 사용될 수 있다.).
실시예에 따라, 또한 움직임 검출 단계(ii)는, 예를 들어 노출 정의 및 조절 단계들(iii 및 iv)의 현재 수행 상황들에 조차도 독립적으로 자신의 연속적 루프로서 수행될 수 있다. 더 일반적으로 움직임은 움직임 검출이 자신의 루프 또는 노출 조절 루프의 일부로서 수행되는지와 무관하게 최근 두 개의 이미지 프레임들 FRp, FRc에 기반하여 검출될 수 있다.
예를 들어, 만약 이미지 프레임 FR3(=FRc)가 이미지 FR1에 기반하여 계산된 노출 조절들을 사용하여 노출되고, 이미지 FR3에 기반하여 이미지 FR5에 대한 새로운 노출 조절들을 계산하면, 그럼에도 불구하고 움직임의 검출에서 이전 이미지 프레임 FR2(FRp)의 데이터를 사용하는 것이 가능하며, 이것은 이미지 프레임 FR1이 아니라, 이미지 프레임 FR2로부터 계산된 것이며, 이를 기반으로 이전의 노출 조절이 수행된다. 변경된 노출 파라미터들은 상이한 노출 파라미터들을 사용하여 형성된 이미지 프레임들을 서로 비교할 때 움직임의 검출에 대하여 문제들을 야기하지 않는다.
센서 CAM으로부터 이미지 프레임들의 판독 속도는 예를 들어, 15/30 fps일 수 있다. 그러나, 또한 장시간 노출을 가능하게 하기 위해서, 예를 들어 매 4번째 가능한 시간마다 센서 CAM으로부터 이미지를 실제로 판독하는 것이 가능하며, 이 경우에 실제 이미지 주파수는 단지 3.75/7.5fps가 될 것이다. 어떤 경우에는, 이와 관련하여 프레임들 FRp, FRc의 연속성은 그것들이 완전히 연속적, 즉 예를 들어, FRp = FR2 이고 FRc = FR3과 같이 서로 잇따른 것을 언급하는 것이며, 그렇지 않다면 그것들(예를 들어 FR2와 FR3) 사이에 아마도 하나 또는 그 이상의 프레임들이 있을 수 있는 것인데, 이런 것은 본 발명에 따른 방법에서는 고려의 대상이 아니다(즉 FRp = FR1 이고 FRc = FR4일 때). 이미 상술한 바와 같이, 연속성은 예를 들어, 움직임 검출(ii)에 대하여, 또는 노출 조절(iii)에 대하여 프레임들을 제공할 때 서로 다르게 이해될 수 있다.
또한 가능한 한 연속된 이미지 프레임들이 노출 조절 알고리즘(11)에 제공된다. 조절 알고리즘이 민감하게 기능한다면, 그것은 필요한 경우에는 가장 최근에 계산된 노출 파라미터들에 따라 최후의 이미지 프레임이 아직 노출되지 않은 것처럼 노출 파라미터들을 남길 것이다. 얼마나 많은 이미지 프레임들이 연속적 노출 계산들(0...n) 사이에 존재하는지는 센서 CAM에 의존할 것이며, 또한 상이한 순간들에서 동일한 센서에 대하여 변할 수 있다. 예를 들어, 전형적인 CMOS 센서에 대하여, 이전 이미지 프레임이 판독가능할 수 있을 때, 이미 다음 프레임이 노출되기 시작되기 때문에, 일반적으로 사이에 적어도 하나의 이미지 프레임이 있어야 한다. 또한 만약 이미지화 주파수가 너무 높지 않다면 가능한 한 연속적인 이미지 프레임 들로부터 움직임을 감지하는 시도가 있으며, 이 경우에, 이미지 프레임들의 필요한 수는 현재 프레임 FRc와 이전 프레임 FRp 사이에서 생략된다.
움직임 검출(13)에서 적용된 현재 이미지 FRc는 예를 들어 FR3일 수 있으며, 이것과 관련하여 이전 이미지 FRp는 최후에 처리된 이미지를 언급하며, 이것으로부터 값들이 메모리 MEM에서 계산된다. 따라서 이러한 경우에, 이전 이미지 FRp는 예를 들어 차례로 이전 이미지로 언급할 수 있는 이미지 FR2가 될 수 있다. 물론 이전 이미지는 또한 FR1이 될 수 있으며, 만약 모든 이미지들을 처리하기 바라지 않거나, 또는 만약 이것들이 본 발명에 따른 실행에서 사용되기를 원하지 않으면, FR0가 될 수도 있다.
수행되는 방법의 아래 서브 단계(iii)는 예를 들어, 이미지 프레임 FR3로부터 요구된 노출의 전체 노출 수준 EV를 정의할 수 있다. 이 경우에, 요구된 전체 노출 수준 EV는 (노출값) 예를 들어, 일 실시예에 따라 노출 시간 ET과 아날로그 이득 AG의 곱 EV= ET * AG일 수 있는 장치(10)의 AEC 알고리즘(11, 31.1)을 사용하여 결정될 수 있다. 이러한 서브 단계의 실행 위치는 본 발명에서는 고정되는 방식이 아니며, 대신에 움직임 검출 단계(ii) 전에 수행될 수 있음을 이해하여야 한다. 반면에, 이 단계는 또한 단일의 공통 서브 단계를 수행하기 위해서 움직임 검출 단계(ii)와 결합될 수 있다. 이러한 기능을 수행하기 위해서, 예를 들어, 명세서 앞부분에서 언급된 PCT 출원에 개시된 방법에서 픽셀들의 포화는 이를 테면 잘 제어될 수 있으며, 그 방법이 적용될 수 있다. 그러나, 어떤 AEC 알고리즘이든 이러한 단계에서 사용될 수 있다는 것에 유의하라. 서브 단계(iii)의 세부 사항들은 본 발 명에 영향을 미치지 않는다.
단계(iii)는 단계(iv)에 의해 후속되며, 여기서 노출 파라미터들(ET, AG,DG)이 조절된다. 이것은 예를 들어 최후 이미지 프레임 FR3로부터, 그리고 또는 이전 이미지 프레임 FRp와 현재 이미지 프레임 FRc 사이에서 검출된 움직임 C의 양에 따라 정의된 노출의 전체 노출 수준 EV을 사용하여 일어난다.
일단 노출 파라미터들(ET, AG DG)이 조절되면, 단계(iv)로부터 이미지 프레임 포착 단계(i)로 돌아가는 것이 가능하다. 이 경우에, 센서 CAM은 상술하여 정의된 새로운 노출 파라미터들(ET, AG, DG)을 사용하여, 이미지화 연속에 있어서 다음 프레임을 포착하기 위해 사용된다. 가능한 새로운 노출 파라미터들(ET, AG, DG)을 사용하여 포착된 후속하는 프레임은 움직임 검출의 현재 프레임 FRc 및 종결하는 움직임 검출의 현재 프레임이 되도록 설정될 수 있으며, 또는 특히 예를 들어, 편차들과 같은 것으로부터 결정된 본 발명의 방법에서 요구되는 값들이 움직임 검출의 이전 프레임 FRp이 되도록 설정된다.
상기 방법은 스틸 이미지화와 비디오 이미지화에 모두 적용될 수 있기 때문에, 상술한 유형의 루프는 카메라 CAM이 이미지 정보를 형성하는데 사용되는 실제에서 항상 구동되며, 순전히 뷰파인터 VF와 저장소 MEM에 대하여 그리고 더욱 일반적으로 장치(10)의 카메라 기능이 활성화될 때 구동된다. 본 발명은 (ii)와 (iv)의 단계들을 포함한다. 본 발명에 따라, 단계(ii)와 단계(iii)의 프로세싱 순서는 중요하지 않다. 이것은 만약 본 발명에 따라 장점이 된다면, 단계들 (ii)와 (iv)이 결합될 수 있다는 것을 의미한다(만약, 예를 들어, 두 개의 모듈을 가지는 것은 전 체 시스템에 대하여 어떤 방식에 있어서는 불리하게 될 수 있다).
적어도 노출을 조절하기 위해 요구되는 통계학의 계산은 미가공 이미지로부터(움직임 검출에 따라) 일어날 수 있다. 반면에, 그것들(특히 움직임 검출)은 또한 이미 처리된 이미지에 대하여 실행될 수 있다.
도4a는 본 발명에 따른 방법의 움직임 검출 서브 단계(ii)의 더 정확한 실시예를 도시한다. 상술한 서브 단계들(i-iv)의 기본 형태는 다시 고려될 필요가 있을 것이다.
일 실시예에 따라, 단계(ii)에서 이미지 프레임들 FRp, FRc는 서브 단계(401)로서 각각이 설정 방식에서 자신의 프로세싱 주기에서 예를 들어 서로 대응하는 (M×N) 영역들로 나뉠 수 있다. 프로그램 생성물은 프로세서 CPU 상에서 실행될 이런 목적을 위한 코드(31.5)를 포함한다. 그 후 이런 영역들은 연속적 이미지 프레임들 FRp, FRc 간에 움직임을 검출하기 위해서 서로 비교될 수 있다.
일 실시예에 따라, 이미지 프레임들 FRp, FRc는 자신의 프로세싱 주기에서 각각 예를 들어 균등하게 M×N 블럭으로 나뉠 수 있다. 이러한 경우에, M은 수평 방형으로의 블럭들의 수이며, N은 수직 방형으로의 블럭들의 수이다. 블럭들의 모양은 예를 들어, 직사각형일 수 있다. 주어질 수 있는 블럭들 수의 일 예는 M=8, N=6이다. 더 일반적으로, 블럭들의 수는 예들 들어, M ∈ [1, 이미지의 열들], N ∈ [1, 이미지의 라인들]일 수 있다. 실제로, 적어도 상위 한계들은 가장 크게 가능한 이론적 값으로부터 좁혀질 수 있어서, 요구되는 메모리 양이 적당하게 유지될 수 있다. 블럭들의 변동(variation) 범위는 예를 들어, M ∈ [4, 256], N ∈ [3, 192]일 수 있다. 블럭들의 수를 적당하게 유지함으로써, 픽셀값들 대신에 픽셀들에 의해 형성된 영역들에서 변화가 일어나는 것이 가능한데, 즉 예를 들어 픽셀값들의 차이가 아니라 영역들의 편차에 의해 변화가 일어나는 것이 가능하다. 하위 한계는 양쪽 방향에서 동등하게 M,N=1일 수 있으며, 계산 기술의 관점에서 하나의 블럭에 대하여 이미지의 편차를 계산하는 것은 매우 빠르므로(만약 이미지의 히스토그램(histogram)이 수집되면), 움직임의 개략적 예상으로서 사용될 수 있다.
일 실시예에 따라, 프레임 FRp, FRc의 전체 이미지 영역을 활용하도록 강제되지 않는다. 사실, 만약 이미지가 예를 들어 블럭들의 요구되는 수에 의해서 균등하게 나뉠 수 없다면, 그러면 계산 기술의 관점에서 블럭의 크기는 정수(또는 짝수)에 의해 표시되는 값으로 제한될 수 있다. 그러면 블럭들 밖의 영역은 움직임 검출의 계산에서 활용되지 않은 채로 남겨질 수 있다.
다음으로, 서브 단계들(402-405)에 따라, 예를 들어, 설정 방식에서 각 연속적 이미지 프레임들 FRp, FRc로부터, 서로 대응하는 영역들 내에서 나타나는 변화들을 결정할 수 있다. 이것을 수행하는 한 가지 방법은 어떤 적합하게 선택된 통계적 수를 정의하는 것인데, 이로써, 프레임들 FRp, FRc 간의 이미지 물체/장치(10)의 움직임이 식별될 수 있고, 상기 통계적 수는 움직임을 양을 표현할 수 있다. 이런 통계적 수의 일 예는 영역들의 분산으로도 표현될 수 있는 편차 σ2이 될 수 있다. 상기 편차는 적어도 일부의 영역들에 대하여 계산될 수 있다.
편차 σ2는 예를 들어 프로그램 생성물(30)에 속하는 프로그램 코드(31.6)를 사용하여 계산될 수 있으며, 예를 들어, FRp, FRc 프레임들 모두의 각 블럭에 대하여, 또는 적어도 상기 블럭들의 일부에 대하여 프로세서 CPU를 사용하여 실행될 수 있다. 알려진 바와 같이, 편차 σ2의 수학적 정의는 아래와 같다.
(이는 실제로는 분산을 나타내는 식이다.)
Figure 112007054573038-pct00001
여기서, m은 평균값이며:
Figure 112007054573038-pct00002
그리고 i∈[1,n]는 블럭 j∈[1,M×N]내의 각 픽셀값 xi에 대한 인덱스이다. 알려진 바와 같이, 픽셀값들은 예를 들어, 범위 0-255에서 변화할 수 있다.
후속하는 서브 단계(403)에 따라, 서로 대응하는 현재 프레임 FRc와 이전 프레임 FRp의 영역에 대한 편차는 설정 방식에서 서로 비교될 수 있다. 상기 비교는 예를 들어, 서로 대응하는 영역들의 편차들에 대한 차이 또는 그것들의 비율을 예를 들어, 코드 수단(31.5)을 사용하여, 적어도 일부의 편차에 대하여 계산함으로써 수행될 수 있다. 서브-서브-단계(404)에서, 현재 프레임 FRc에서의 블럭 j에대한 편차 σ2 jFRc가 설정 방식에서 비교될 때, 이전 프레임 FRp의 대응하는 블럭 j에 대한 편차 σ2 jFRp 와 다른지를 결정하는 것이 가능하다.
만약 충분한 차이가 단계(404)에서 검출되지 않으면, 단계(405')로 이동할 수 있다. 이 경우에, 비교되는 잔여 이미지 블럭들이 여전히 존재하는지를 결정한다. 만약 비교되지 않았던 이미지 블럭들이 존재한다면, 다시 단계(403)로 회귀한다.
만약 단계(404)에서, 이미지 프레임들 FRp, FRc의 서로에 대응하는 영역들 jFRp, jFRc의 편차들이 설정 방식에서 서로 다르다면, 즉 비교를 위해 설정된 특정 기준 조건 T가 만족되면, 그러면 검출된 움직임이 고려된다. 그러면 후속하는 서브-서브-단계(405)로 이동하는 것이 가능하다. 이 경우에, 움직임의 양에 대한 표시자는 설정 방식에서 증가된다.
비록 물론 가능하다고 하더라도, 움직임 검출에 있어서, 모든 색상의 구성요소들을 (예를 들어, 만약 색상 시스템이 RGB이면) 고려할 필요는 없다. 일 실시예에 따라, 움직임은 예를 들어, 녹색 구성요소 G만으로부터 검출될 수 있다. 적색 R 또는 파랑 B보다 발광성 구성요소에 더 가깝기 때문에 움직임 검출을 위해 녹색 구성요소 G를 선택하는 것이 유리하다.
일 실시예에 따라, 단계(404)에서 검출된 차이는 임계값 T로서 정의될 수 있으며, 이것은 이미지 물체에 나타나는 움직임 때문에 초과될 것이다. 편차에서 차이에 대한 기준 조건 T는 예를 들어, T = D/8과 T ∈ [D/12,D/4]일 수 있다. 이 경우에, D는 계산된 편차에 기반하여 픽셀들의 G 구성요소의 값들에 대한 양자화 수준의 개수이다. 이것은 예를 들어, 입력 이미지의 비트 깊이가 대응하는 것과 동일 한 것이 될 필요는 없다. 입력 이미지가 이를 테면 24bpp라면, 즉 구성요소 당 8 비트라면, 이 경우에 픽셀들의 구성요소들의 값들은 0...255범위에 있을 것이다. 즉 256 양자화 수준이 될 것이며, 그러면 편차는 예를 들어, 4개의 최상위 비트들만을 사용하여 더욱 근사하게 계산될 수 있어, D = 24 = 16이 된다.
단계(405)에서, 프레임들 FRp, FRc 간의 움직임의 양을 표시하는 수치적 값인 '움직임 계산자' C는 예를 들어, C ∈ [0, M*N]이 되는 방식으로 본 발명에 따른 방식에서 정의될 수 있다. 단계(405)에서, 서로에 대응하는 블럭들 jFRp, jFRc의 편차 σ2 jFRp, σ2 jFRc의 차이에 대한 절대값이 하나의 블럭 j에서 그것에 대하여 설정된 임계값 T를 초과할 때까지 항상 1씩 증가될 수 있다. 편차 σ2의 비교는 프레임들 FRp, FRc에서 서로 대응하는 블럭들 jFRp, jFRc 사이에서 수행된다. 이런 증가 단계(405)로부터 단계(405')로 이동하는 것이 가능하다.
이전 프레임 FRp과 비교하여 변화하기 쉬운 블럭들의 수이며, 움직임의 양을 표시하는 표시자인 움직임 계산자 C는 움직임에 대한 측정이며, 이것은 움직임 정의 모듈(13, 31.3)로부터의 입력값이다. 검출될 수 있는 움직임의 양, 즉 움직임 정의 모듈(13, 31.1)의 해상도는 블럭들의 수(M과 N이 변수)를 사용하여 조절될 수 있으며, 편차 σ2에서의 변동 민감성은 임계 파라미터 T를 사용하여 조절될 수 있다.
상술한 움직임 검출은 계산에 대하여는 상당히 단순하나, 그럼에도 불구하고 상기 방법의 작동을 위해 충분한 내성(robustness)을 생성하기에 충분히 양호하다. 작게 움직이는 이미지 물체들이 크게 움직이는 영역들보다 더 작은 효과를 초래할 것이다. 이 경우에, 계산의 복잡성에 대한 하위 수준은, 움직임 검출 모듈(13, 31,1)이 실시간 시스템 IC의 일부이고, 장치(10)의 프로세싱 전력이 제한되기 때문에, 중요한 특성이 된다. 그러나 이것은 추후에 언급되는 도8a 내지 도8d와 도9a 내지 도9d의 이미지 콜라주들로부터 쉽게 볼 수 있는 바와 같이 양호한 결과들을 달성한다. 추가적으로 편차들은 전체 노출의 정의를 위하여 이미 이용가능한 픽셀 데이터로부터 계산될 수 있다.
일단 단계(405')에서 비교되는 영역들 j가 더 이상 없다는 것이 발견되면, 그 다음의 단계는 노출 파라미터들을 조절하는 구획(12, 31.2, 31.4, 31.8)으로, 즉 상기 방법의 단계(iii)로 진행한다. 동시에, 편차들에 관한 변수들의 변화 또한 수행될 수 있다. 이 경우에, 현재 프레임 FRc의 편차들 σ2 jFRc 는 후속하는 수행 주기에서 '이전' 이미지 프레임 FRp의 편차들 σ2 jFRp이 되도록 설정된다. 또한 이것은 장치(10) 내의 메모리의 사용에 있어서 중요하다. 이전 이미지 프레임 FRp으로부터, 메모리 MEM은 편차값들 σ2 jFRp만을 포함해도 충분하며, 이것은 공간을 거의 차지하지 않으며, 이미지 프레임들 FRp, FRc 간에 움직임을 검출하기 위해서 필요하다. 노출 계산 과정들과 독립하여 움직임 검출이 적용되면, 아직 사용되지 않은 이전 프레임 FRp의 편차값들 σ2 jFRp는 다음 노출 조절 주기를 위하여 메모리 MEM에 저장된다.
도4b는 단계(iv)를 더 자세히 도시한다. 단계(iv)에서, 노출 시간 ET와 이 경우에 요구된 전체 노출 수준 EV을 형성하는 아날로그 이득 AG의 조합은 검출된 움직임을 고려하여 연속적 프레임들 FRp, FRc에서 계산된다. 본 발명의 주요 원리에 따라, 만약 디지털 이득 계수 DG가 1이 되도록 설정되면, 매우 작은 움직임은 노출 시간 ET를 더 길게하고, 더 일반적으로 이득 G인 아날로그 이득 AG를 더 작게 만들 것이다. 대응하여, 큰 움직임은 사용되는 노출 시간 ET를 더 작게하고, 아날로그 이득 AG를 더 크게 만들 것이다.
단계(406,407)에서, 특정 기준값들이 노출 시간 ET와 아날로그 이득 AG에 대하여 정의되고 설정된다. 이러한 목적을 위하여, 프로그램 생성물(30) 내에 프로세서 CPU에 의해 실행되는 코드 31.7이 존재한다. 적어도 노출 시간 ET의 기준값들에 대한 적어도 일부는 단계(ii)에서 검출되는 움직임의 양 C에 의존한다. 추후에 더 자세하게 설명되는 본 발명에 대한 설명과 도5 내지 도7에서 언급되는 설명을 이용하여, 먼저 본 발명과 관련된 이러한 기준값들이 조사된다.
ETbsl : (검출된 움직임에 따른) 움직임 흐릿화에 대하여 안전한 노출 시간,
ETbsh : (검출된 움직임에 따른) 움직임 흐릿화에 대하여 상대적으로 안전한 노출 시간,
ETul : (검출된 움직임에 따른) 노출 시간의 상위 한계,
ETmax : 최대 이용가능한 노출 시간(센서 의존형),
AGnsl : 노이즈에 대하여 안전한 아날로그 이득(센서 의존형),
AGnsh : 움직임 흐릿화를 예방하기 위해 사용되도록 허용된 최대 아날로그 이득(센서 의존형),
AGmax : 최대 가능 아날로그 이득(센서 의존형).
서브 단계(iv)의 입력 파라미터들은 아래와 같다:
1) 요구된 전체 노출 수준(이전 서브 단계(ii)로부터 얻어진 값을 출력하며, 참조 EV로 표시됨), 및
2) 검출된 움직임(움직임 검출 서브 단계(ii)로부터 얻어진 값을 출력하며, 참조 C를 표시됨).
서브 단계(iv)로부터, 아래 출력 값들이 얻어진다:
1) 노출 시간값 ET
2) 아날로그 이득값 AG, 및
3) (디지털 이득값 DG).
움직임 흐릿화에 대하여 안전한 노출 시간 ETbsl은 만약 움직임(C=0)이 프레임들 FRp, FRc 사이에서 검출되지 않으면 E1에 맵(map)되고, 특정 설정 기준에 따라 최대 움직임(C=C1)이 프레임들 FRp, FRc 사이에서 검출되면 E2에 맵되는 방식으 로 계산되고 설정되며, 여기서 C1은 일 실시예에 따라, 예를 들어, C1 = M * N/4가 될 수 있다. 따라서 ETbsl = E1 - (E1-E2) * min(C,C1)/C1이며, 여기서,
C1 = M * N/4, 여기서,
M = 수평 방형으로의 영역들의 수, 그리고
N = 수직 방형으로의 영역들의 수.
E1은 정적 물체들이 자유롭게 이미지될 때, 움직임 흐릿화에 대하여 안전하게 되도록 추정되는 노출 시간이다. 이것은 예를 들어, 센서 CAM의 픽셀 크기와 장치(10)의 설계에 의존한다. E1 값의 일 예는, 예를 들어, 1/50s일 수 있으며, 더 일반적으로 1/100s..1/25s(1/500s..1/2s)일 수 있다. 함수 min(C,C1)은 값들 C와 C1 중 더 작은 값을 반환한다. 더 일반적으로, 최소 함수(minimum function)을 적용하는 것은 움직임의 양에 의존할 수 있는 기준값들을 만들 수 있고, 그러나 움직임의 양이 크게 되어 증가되더라도, 그것들은 특정 최대 수준을 초과하지 않는다.
E2는 움직이는 이미지 물체들이 이미지화될 때, 움직임 흐릿화에 대하여 안전하게 되도록 추정되는 노출 시간이다. E2 값의 일 예는, 예를 들어, 1/125s일 수 있으며, 더 일반적으로 1/200s..1/50s(1/800s..1/2s)일 수 있으며, 여기서 E1 > E2이다. 그러나, E2의 값은 예를 들어, 1/1000s와 같은 절대적으로 안전한 값으로 설정되지 않는 것이 바람직한데, 왜냐하면 이것은 센서 CAM으로부터 큰 아날로그-이득 성능을 보통 요구할 것이기 때문이다. 본 발명의 방법에 있어서, 예를 들어 1/1000s와 같은 매우 작은 노출 시간들은 예를 들어 조명이 충분하다면 자동적으로 사용될 수 있다. 그러나, 저조명 조건에서, 자동적 시스템은 사용자가 노이즈 보다 움직임 흐릿화를 항상 더 선호한다고 가정할 수 없기 때문에, 움직임 흐릿화와 노이즈 간에 타협이 있어야 한다.
2) 움직임 흐릿화에 대하여 상대적으로 안전한 노출 시간 ETbsh는 이전 프레임들과 현재 프레임들 FRp, FRc 간에 검출되는 움직임이 없을 때(C=0)는 E3에 맵되고, 특정 설정 기준에 따른 최대 움직임(C=C2)이 프레임들 FRp,FRc 사이에서 검출되면 E4에 맵되는 방식으로 계산되고, 설정되며, 여기서 C2는 일 실시예에 따라, 예를 들어, C2 = M * N/3가 될 수 있다.
따라서, ETbsh = E3 - (E3-E4) * min(C,C2)/C2, 여기서,
E3 = ETmax, 여기서
ETmax = 센서-특정 최대 노출 시간, 예를 들어 ETmax = 1s일 수 있으며, 더 일반적으로 ETmax ∈[1/30s,30s]일 수 있으며,
E4 = ETbsl, 여기서 E3 > E4이다.
상술한 것은 조명의 양이 감소됨에 따라, 더 많은 움직임은 밝은 조건들에서 만큼 짧은 노출 시간을 사용할 수 있도록 요구되며, 저조명 조건들에서 카메라 장치(10)와 물체 중 어느 것도 움직이지 않는다면 낮은 아날로그 이득을 이용하여 매우 긴 노출 시간을 사용하는 것이 가능하다는 것을 의미한다.
3) 노출 시간에 대한 상위 한계는 예를 들어 ETul = ETbsh + (ETmax-ETbsh) / 2 또는 ETul = ETmax가 될 수 있다. 이것은 매우 저조명 조건들에서 움직임 흐릿화와 노이즈 모두가 나타날 수 있다는 것을 의미한다. 움직임 흐릿화는 이미지에 나타나는 노이즈를 방해함이 없이 상기 노출 수준에서 더 이상 예방될 수 없다. 이러한 조명 수준에서, 이미지를 적절하게 노출시키기 위해서 노출 시간 ET과 아날로그 이득 AG 모두는 증가된다. 그러면 움직임 흐릿화와 노이즈 간에 타협되어야 한다.
이득 G의 기준값들, 이 경우에 아날로그 이득 AG는 아래와 같이 설정될 수 있다:
4) AGnsl = x1 .. x8 (+0㏈.. + 18㏈), 예를 들어, x2
5) AGnsh = x1 .. x16 (+0㏈.. + 24㏈), 예를 들어, x4
6) AGmax = x1 .. x32 (+0㏈.. + 30㏈), 예를 들어, x8
그리고 AGnsl≤ AGnsh≤ AGmax.
본 발명은 아날로그 이득 AG (즉, AGmax = x1)를 구비하는 카메라 센서 CAM을 사용하는 것이 불가능한 경우에도 또한 사용될 수 있음에 유의하라. 이러한 경우에, 아날로그 이득 AG는 디지털 이득 DG로 대체될 수 있다. 그러나 최종 결과는 아날로그 이득 AG가 사용될 수 있는 센서 CAM에서 만큼 양호하지는 않을 것이다.
추가적으로, 또한 상기 주어진 C1, C2 값들은 예시적 값들임에 유의하여야 한다. 그것들은, 예를 들어 원하는 조절 및/또는 센서 CAM의 특성들에 따라 당연히 변경될 수 있다. C1, C2는 예를 들어, M*N/8.. M*N의 범위에서 변화될 수 있으며, 즉 실제로는 C1 및/또는 C2가 M*N보다 더 작다면, 블럭들의 최대로 가능한 수(= M*N)가 움직인다고 검출되기 전에 이미 최대 조절이 달성될 것이다.
일단 기준값들이 계산되면, 단계(408)로 진행한다. 이 경우에, 사용되는 노출 파라미터들, 즉 노출 시간 ET, 아날로그 이득 AG, 및 가능한 디지털 이득 DG는 전체 노출 수준 EV와 이전 단계에서 정의된 기준값들 ETbsl, ETbsh, ETmax, ETul, AGnsl, AGnsh, 및 AGmax을 사용하여 계산된다. 전체 노출 수준 EV는 노출 시간과 같은 단위(예를 들어, 마이크로초로)로 표현될 수 있다. 아날로그 이득 AG는 예를 들어, 데시벨 대신에 계수로서 표현될 수 있다. 도7 내지 도7은 상이한 상황들에서 요구된 전체 노출 수준 EV의 함수로서 노출 시간 ET과 아날로그 이득 AG 간의 관계를 도시한다.
본 발명에서, 전체 노출 수준 EV와 노출 파라미터들 ET, AG는 아래 관계를 만족시킨다.
EV = ET * G, 여기서 G = AG * DG.
파라미터들 ET, AG는 노출의 전체 수준 EV과 검출된 움직임 C의 양에 의존하여 상기에서 정의된 기준값들에 의해 정의되는 값 영역들(value areas)에 따라 설정될 수 있다. 더 일반적으로, 노출 시간 ET와 이득 G의 곱 EV = ET * G가 바람직할 수 있으며, 여기서 이득 G = AG * DG이다. 애플리케이션들의 실시예에서, 계수 1(= 0 ㏈)은 G = AG일 때, 디지털 이득 DG의 디폴트 값으로서 설정되며, 이 경우에 주로 단지 아날로그 이득만이 작동한다. 추가적으로, 디지털 이득 DG는 만약 그것 이 있어야 하거나 사용되어지기 바란다면 프로세싱 체인의 여러 지점들에서 (센서 CAM에서 또는 프로세싱(14)에서만) 수행될 수 있음에 더 유의하여야 한다.
여기서, 도5 내지 도7에서 기본 원리들을 도시하는 그래프들이 참조로서 주어지며, 여기에는 이미지에서 검출된 움직임들의 양과 관련하여 상이한 상황들이 도시된다. 도5의 그래프에서, 샷(shot)에서 어느 정도의 움직임이 존재하며, 그러나 최대량 C2는 아니다. 아래에서 더 자세하게 설명되는 노출 시간 ET과 아날로그 이득 AG의 조절에 있어서, 상기 도5에 따른 경우에 정확한 기준이 주어진다. 추가적으로, C1, C2에 대하여 도시된 값들은 최대 조절이 이미 C = N*M이 되기 전에 이미 도달되었음을 의미한다는 것에 또한 유의하여야 한다. 여기서, 또한 최대량은 C2보다 큰 모든 양들이 도6의 그래프에 의해 도시된 바와 같이 작동하는 방식으로 행동한다. 도7의 그래프에서는, 예를 들어 도5와 도6의 경우와 비교하여 샷에서의 움직임이 없다.
도6의 그래프에 있어서, 곱 ETbsl * AGnsl 과 ETbsh * AGnsl은 상기의 기준값 정의들에 따라, 그것들이 검출된 움직임 C의 양이 최대 수준에 있을 때 동일한 값을 도출하기 때문에, X축 상에서 동일한 지점에 놓인다. 또한 도5 내지 도7의 하단 부분들은 움직임 흐릿화의 상대적인 양과 각 노출 시간 ET에서의 노이즈, 및 아날로그 이득 AG의 추정을 또한 도시한다. 이러한 추정들은 실시예의 후단에 그 애플리케이션이 더 자세하게 설명될 본 발명에 따른 AEC 프로그램 개념에 쉽게 부착될 수 있다. 이것과 관련하여, 프로그램 코드(31)의 코드 수단(31.9)이 참조로 주어진다.
1) 상기 전체 노출 수준(EV)의 값 범위 [0, ETbsl]에 있어서, 상기 아날로그 이득(AG)의 계수 값은 1(= +0㏈)로 고정되기 때문에, 상기 노출 시간(ET)은 상기 전체 노출 수준에 대응하는 값(EV)에서 설정된다.
2) 상기 전체 노출 수준(EV)의 값 범위 [ETbsl, ETbsl*AGnsl]에 있어서, 상기 노출 시간의 값은 ETbsl 로 고정되기 때문에, 상기 아날로그 이득(AG)의 계수 값은 AG= EV/ET = EV/ETbsl로 설정된다. 그러면 이득 AG는 계수 1(= + 0㏈)에서 값 AGnsl로 증가한다.
3) 상기 전체 노출 수준(EV)의 값 범위[ETbsl*AGnsl, ETbsh*AGnsl]에 있어서, 상기 아날로그 이득(AG)의 계수 값은 AGnsl로 고정되기 때문에, 상기 노출 시간(ET)은 ET= EV/AG =EV/AGnsl로 설정된다. 그러면 상기 노출 시간 ET는 값 ETbsl에서 값 ETbsh로 증가한다.
4) 상기 노출 수준(EV)의 값 범위 [ETbsh*AGnsl, ETbsh*AGnsh]에 있어서, 상기 노출 시간(ET)의 값은 ETbsh로 고정되기 때문에, 상기 아날로그 이득(AG)의 계수 값은 값 AGnsl로부터 값 AGnsh까지 증가되어 AG= EV/ET = EV/ETbsh이 된다.
5) 전체 노출 수준(EV)의 값 범위 [ETbsh*AGnsh, ETul*AGmax]에 있어서, 상기 노출 시간(ET)의 값은 값 ETbsh로부터 값 ETul로 증가하여 ET= ETbsh + ((EV- ETbsh*AGnsh)/(ETul*AGmax-ETbsh*AGnsh))*(ETul-ETbsh)가 되고 , 상기 아날로그 이득(AG)의 계수 값은 값 AGnsh로부터 AGmax까지 증가하여 AG= EV/ET가 된다.
섹션 5)의 ET 설명에 있어서, ETbsh는 바이어스 수준의 유형으로 고려될 수 있으며, 그것의 상부에 최대 노출 시간과 상수를 곱한 바이어스 수준 (ETul-ETbsh) 간의 차이가 추가된다. 상수는 0과 1 사이의 값이며, 전체 노출의 값 EV가 얼마나 큰지에 의존한다.
6) 만약 노출의 요구된 전체 수준 EV가 값 ETul*AGmax을 초과하면, 그러면 이 경우에 ETul은 노출 시간 ET의 값으로 고정되고, AGmax는 아날로그 이득 AG의 계수 값으로 고정되며, 최종 노출은 디지털 이득 DG를 사용하여 수행된다. 만약 디지털 이득 DG가 아날로그 이득 AG를 대신해서 또는 더불어서, 상기의 전개에서 AG 대신에 이득 G가 더 일반적으로 참조로 주어질 수 있다.
디지털 이득은 체인 IC의 상이한 지점들에서 수행될 수 있다. 제1 실시예에 따라, 그것은 이득 DG가 수정되는 카메라 센서 CAM 상에서 수행될 수 있다. 디지털 이득 DG를 훨씬 더 최적으로 만드는 것이 가능한 제2 실시예에 따라, 그것은 모듈(14) 내에서 이미지 프로세싱과 관련하여만 수행될 수 있다. 단계들의 어떤 예시들은 색 요소들의 전치 증폭(pre-amplification)일 수 있으며, 또는 화이트 밸런스의 조절과 관련될 수 있다. 포착된 이미지, 즉 실제 이미지화 단계 후에 저장되도록 예정된 이미지의 처리 단계까지 디지털 이득을 지연시킴으로써, 계산이 절약되 고 양자화의 양은 정수들로 줄어든다. 이러한 방식으로 진행할 때, 디지털 이득 DG는 상기 상황에서도 센서 CAM의 모두에서 변경될 필요가 없다.
단계(408)에서 잘 조절된 노출 시간 ET, 아날로그 이득 AG, 가능한 디지털 이득 DG을 얻는다.
상기 방법에 대한 상기의 설명에서는, 예를 들어 안정도 특성, 또는 센서 특성 부분들, 실제 카메라 센서가 제어 시스템에 대하여 설정하는 제한들과는 관련이 없다. 범용의 롤링 셔터를 사용하여 이미지의 전체 노출 시간의 계획이 요구되기 때문에, 이것들은 센서의 아날로그 이득과 노출 시간의 개별 조절들, 및 이미지로부터의 빛 소스에 있을 수 있는 깜박임의 제거를 포함한다. 실제 실행은 그와 관련되어 설명되지 않은 요소들을 포함할 것이라는 것에 유의하라. 그러나 이러한 요소들의 실행은 당해 기술분야에 정통한 자에게 명백할 것이며, 따라서 그와 관련하여 그것들을 더 자세하게 설명할 필요가 없다. 추가적으로, 그것들은 본 발명의 기본 사상에는 영향을 미치지 않는다. 사실, 본 발명의 기본 사상은 실제 노출 조절 체인에 의해 요구되는 이러한 다른 요소들과 함께 광범위하게 적용될 수 있다.
더욱이, 도8a 내지 도8d 및 도9a 내지 도9d는 실제 이미지들의 어떤 예들을 도시하며, 여기서 이미지화할 때 본 발명에 의해 얻어진 효과들이 매우 예시적 수준으로 표현되었다. 예시적 이미지들은 Toshiba Mirage 1 카메라 센서를 사용하여 노키아의 모델 6600의 프로토파입(prototype) 이동 스테이션을 사용한 샷이다. 노출의 조절은 상기의 본 발명에 따른 방법을 사용하여 수행된다.
도8a 내지 도8d에서, 본 발명의 움직임은 동일한 이미지 물체를 이미지화할 때, 열악한 조명 조건들에서 도시되었다. 도8a와 도8c에서, 카메라가 견고하게 유지되고, 반면에 도8b와 도8d에서는 카메라가 위쪽으로 등속, 그리고 상기 등속보다 좀 더 빠르거나 좀 더 늦게 움직였다. 도8a와 도8b에서는, 본 발명에 따른 시스템이 사용되었으며, 반면에 도8c와 도8d에서는 그것이 사용되지 않았다. 비록 이미지들이 검정색과 흰색이지만, 그것은 본 발명의 수행을 실제적으로 휼륭히 도시한다.
이미지들로부터 매우 도식적으로 관찰될 수 있는 바와 같이, 본 발명은 이미지에 움직임이 있을 때에만 노출 시간을 제한한다. 또한 이미지들로부터, 움직임 흐릿화가 이미들에서의 모든 세부적인 것들을 파괴함을 볼 수 있으며, 여기서 본 발명에 따른 해결책은 사용되지 않는다. 최종적으로, 더 큰 아날로그 이득 때문에 노이즈 수준이 도8b에서 증가함을 이미지들로부터 볼 수 있다. 그럼에도 불구하고, 이미지화를 수행하는 대부분의 것들은 도8b가 도8d보다 양호하다는 것을 느낄 것이다.
대응하는 이미지 콜라주의 예들이 도9a 내지 도9d에 도시되었다. 이 경우는, 이미지화가 밝은 실내 조명에서 그리고 카메라가 수직적이 아니라 수평으로 움직이는 상황이다. 그렇지 않으면, 이미지들의 정렬/관찰의 중요성은 이전 예들에 대응한다. 이들 예들로부터 또한 볼 수 있듯이, 본 발명은 움직임 흐릿화를 명백히 감소시키며, 그럼에도 불구하고 노이즈는 낮은 수준으로 유지된다.
도2는 본 발명에 따른 프로그램 생성물(30)의 애플리케이션 예의 개략적인 다이어그램을 도시한다. 프로그램 생성물(30)은 프로그램 수준에서 적어도 부분적으로 본 발명에 따라 AEC를 실행시키기 위해서, 저장 매체 MEM과 장치(10)의 프로 세서 수단 CPU를 사용하여 실행되고 저장 매체 MEM에 기록되는 프로그램 코드(31)로 구성될 수 있다. 프로그램 코드(31)의 저장 매체 MEM은 예를 들어, 장치(10)의 정적 또는 동적 애플리케이션 메모리 또는 이미지화 체인 IC 내의 AEC 회로 모듈 전체가 될 수 있으며, 여기서 그것은 직접적으로 집적될 수 있다.
프로그램 코드(31)는 프로세서 수단 CPU(참조번호 11 내지 13)에 의해서 수행되는 여러 코드 수단(31.1 - 31.9)을 포함할 수 있으며, 그 동작은 상기에 설명된 방법의 설명에 정확하게 적응된다. 상기 코드 수단(31.1 - 31.9)은 본 발명에 따라 장치(10)에서 달성될 수 있는 본 발명의 관점에서 요구되는 기능들에 의해 연속적으로 수행되도록 프로세서 명령들의 그룹을 형성할 수 있다.
비록 조리개의 조절 가능성이 상기 설명된 실시예들에서 설명되지 않았지만, 그러나 또한 본 발명은 장치의 부품들에 적용될 수 있으며, 조리개를 조절하는 것이 가능하다. 따라서, 예를 들어 저조명 조건에서, 조리개는 일반적으로 가능한 한 커지도록 조절될 수 있어, 가능한 한 많은 빛이 센서 CAM에 도달할 수 있다.
만약 조리개가 조절될 수 있고 변화할 수 있다면, 조리개를 조절하는 효과는 노출의 전체 수준, 즉 EV 값을 계산할 때 고려된다. 추가적으로, 만약 줌 렌즈를 구비한 장치가 사용되면, 노출 전력은 초점 길이가 증가함에 따라서 또한 감소할 것이다. 이로써 야기되는 변화는 또한 노출의 조절(EV-값 계산)에서 예상될 수 있다. 그러나, 초점 길이의 변화는, 이것이 시각적 이미지의 크로핑(cropping)에 영향을 미치기 때문에, 노출을 조절하는 것처럼 사용될 수 없다.
카메라의 경우에, 본 발명은 노출 시간 ET과 아날로그 이득 AG를 조절하거 나, 심지어 자동으로 조절하여, 여러 조명 조건들에서 움직이는 물체들에 대하여 선명한 이미지를 획득하고, 카메라 움직임(예를 들어, 흔들림)의 제거를 허용한다. 특히 흔들림은 이동 스테이션들을 이용하여 수행할 때 나타나며, 이 경우에 카메라를 일반적으로 한 손으로 지지하면서, 그 손으로 트리커 버튼을 누른다. 그러나, 본 발명을 통하여, 노이즈 수준을 상당히 방해하는 수준으로 증가시키지 않으면서도 움직임 흐릿화가 피해진다. 최종적으로, 밝은 노출 조건들도 움직임 흐릿화에 대하여, 심지어 전통적인 AEC 시스템들에 대하여도 문제가 되지 않음을 밝혀둔다.
또한 본 발명은 여러 사용자에게 친숙한 프로그램 생성물들의 요구들에 대하여 쉽게 조정될 수 있다. 예를 들어, "노이즈를 야기하는 아날로그 이득을 사용하지 말라, 그러나 사용하지 않더라도 그것은 움직임 흐릿화를 야기할 것이다", 이와 반대로 "움직임 흐릿화를 예방/감소시키려면 작은 양의 노이즈를 허용하라"와 같은 어떤 특정한 노출 전문 지식이 없는 최종 사용자에 대하여, 본 발명의 덕분에, 이미지화 프로그램에서 달성된, 명확한 언어 선택 상황들에 대한 기준에 만들어진다. 이러한 선택들을 실행시키기 위해서, 프로그램 생성물(30)의 코드(31) 내에 서브 모듈(31.9)이 존재하며, 이것은 촬영자에게 명확한-언어 선택들을 위한 가능성들을 제공한다.
상술한 설명과 관련된 도면은 본 발명을 단지 예시하기 위한 것임을 이해하여야한다. 따라서 본 발명은 청구항들에 개시되거나 설명된 실시예들에만 결코 제한되지 않으며, 첨부된 청구항들에서 정의된 본 발명의 범위 내에서 본 발명에 대하여 상이한 변화들 및 적응들이 가능할 것이며, 이는 당해 기술 분야에서 정통한 자에게 명백할 것이다.

Claims (22)

  1. 디지털 이미지화에서 노출을 조절하기 위한 장치(10)에 있어서,
    제 1 이미지 프레임(FRp) 및 제 2 이미지 프레임(FRc)을 캡처(capture)하기 위한 카메라 수단(CAM);
    캡처된 이미지 프레임(FRp, FRc)으로부터 요구되는 전체 노출 수준(EV)을 결정하기 위한 수단;
    상기 제 1 이미지 프레임(FRp) 및 상기 제 2 이미지 프레임(FRc)으로부터 움직임을 검출하기 위한 움직임 검출 수단(13); 및
    상기 검출된 움직임 및 상기 요구되는 전체 노출 수준(EV)에 기초하여 상기 카메라 수단(CAM)의 노출 시간(ET)을 조절하기 위한 조절 수단(12);을 구비하며,
    상기 움직임 검출 수단(13)은,
    - 상기 제 1 이미지 프레임(FRp)의 블럭(jFRp)의 픽셀값들에 대한 제 1 분산(σ2 jFRp)을 결정하고,
    - 상기 제 2 이미지 프레임(FRc)의 대응 블럭(jFRc)의 픽셀값들에 대한 제 2 분산(σ2 jFRc)을 결정하며,
    - 상기 제 1 분산(σ2 jFRp)과 상기 제 2 분산(σ2 jFRc)을 비교하도록 구성되는 것을 특징으로 하는 장치(10).
  2. 삭제
  3. 제 1 항에 있어서,
    상기 이미지 프레임들(FRp, FRc)은 몇몇의 블럭들로 분할되고,
    상기 움직임 검출 수단(13)은 상기 제 1 분산(σ2 jFRp)과 상기 제 2 분산(σ2 jFRc)의 차이의 절대값이 소정의 임계값(T) 이상인 블럭들의 수(C)를 카운트하도록 구성되며,
    상기 노출 시간(ET)은 상기 카운트된 수(C)에 기초하여 조절되는 것을 특징으로 하는 장치(10).
  4. 디지털 이미지화에서 노출을 조절하기 위한 방법에 있어서,
    제 1 이미지 프레임(FRp) 및 제 2 이미지 프레임(FRc)을 캡처하는 단계;
    캡처된 이미지 프레임(FRp, FRc)으로부터 요구되는 전체 노출 수준(EV)을 결정하는 단계;
    상기 제 1 이미지 프레임(FRp)의 블럭(jFRp)의 픽셀값들에 대한 제 1 분산(σ2 jFRp)을 결정하고, 상기 제 2 이미지 프레임(FRc)의 대응 블럭(jFRc)의 픽셀값들에 대한 제 2 분산(σ2 jFRc)을 결정하며, 상기 제 1 분산(σ2 jFRp)과 상기 제 2 분산(σ2 jFRc)을 비교함으로써 움직임을 검출하는 단계; 및
    검출된 움직임 및 상기 요구되는 전체 노출 수준(EV)에 기초하여 카메라 수단(CAM)의 노출 시간(ET)을 조절하는 단계;를 구비하는 것을 특징으로 하는 방법.
  5. 삭제
  6. 제 4 항에 있어서,
    상기 이미지 프레임들(FRp, FRc)을 몇몇의 블럭들로 분할하는 단계;
    상기 제 1 분산(σ2 jFRp)과 상기 제 2 분산(σ2 jFRc)의 차이의 절대값이 소정의 임계값(T) 이상인 블럭들의 수(C)를 카운트하는 단계; 및
    상기 노출 시간(ET)을 상기 카운트된 수(C)에 기초하여 조절하는 단계;를 더 구비하는 것을 특징으로 하는 방법.
  7. 제 4 항 또는 제 6 항에 있어서,
    움직임의 검출은 요구되는 전체 노출 수준(EV)의 결정과 무관하게 독립적으로 수행되는 것을 특징으로 하는 방법.
  8. 프로그램을 포함하는 컴퓨터 판독가능 매체에 있어서,
    상기 프로그램은 컴퓨터에
    - 제 1 이미지 프레임(FRp) 및 제 2 이미지 프레임(FRc)을 캡처하기 위한 기능;
    - 캡처된 이미지 프레임(FRp, FRc)으로부터 요구되는 전체 노출 수준(EV)을 결정하기 위한 기능;
    - 상기 제 1 이미지 프레임(FRp)의 블럭(jFRp)의 픽셀값들에 대한 제 1 분산(σ2 jFRp)을 결정하고, 상기 제 2 이미지 프레임(FRc)의 대응 블럭(jFRc)의 픽셀값들에 대한 제 2 분산(σ2 jFRc)을 결정하며, 상기 제 1 분산(σ2 jFRp)과 상기 제 2 분산(σ2 jFRc)을 비교함으로써 움직임을 검출하기 위한 기능; 및
    - 검출된 움직임 및 상기 요구되는 전체 노출 수준(EV)에 기초하여 카메라 수단(CAM)의 노출 시간(ET)을 조절하기 위한 기능;을 구현시키는 것을 특징으로 하는 컴퓨터 판독가능 매체.
  9. 삭제
  10. 제 8 항에 있어서,
    상기 프로그램은 상기 컴퓨터에
    - 상기 이미지 프레임들(FRp, FRc)을 몇몇의 블럭들로 분할하기 위한 기능;
    - 상기 제 1 분산(σ2 jFRp)과 상기 제 2 분산(σ2 jFRc)의 차이의 절대값이 소정의 임계값(T) 이상인 블럭들의 수(C)를 카운트하기 위한 기능; 및
    - 상기 노출 시간(ET)을 상기 카운트된 수(C)에 기초하여 조절하기 위한 기능;을 더 구현시키는 것을 특징으로 하는 컴퓨터 판독가능 매체.
  11. 제 8 항 또는 제 10 항에 있어서,
    상기 프로그램은 상기 컴퓨터에
    - 사용자가 움직임 흐릿화(motion blurring)를 야기할 수 있는 제 1 옵션 및 움직임 흐릿화를 감소 또는 예방하는 제 2 옵션 중에서 선택하도록 하기 위한 기능;을 더 구현시키는 것을 특징으로 하는 컴퓨터 판독가능 매체.
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
KR1020077017290A 2007-07-26 2007-07-26 디지털 이미지화의 노출 KR100910361B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020077017290A KR100910361B1 (ko) 2007-07-26 2007-07-26 디지털 이미지화의 노출

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020077017290A KR100910361B1 (ko) 2007-07-26 2007-07-26 디지털 이미지화의 노출

Publications (2)

Publication Number Publication Date
KR20070097552A KR20070097552A (ko) 2007-10-04
KR100910361B1 true KR100910361B1 (ko) 2009-08-04

Family

ID=38803756

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020077017290A KR100910361B1 (ko) 2007-07-26 2007-07-26 디지털 이미지화의 노출

Country Status (1)

Country Link
KR (1) KR100910361B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101598159B1 (ko) * 2015-03-12 2016-03-07 라인 가부시키가이샤 영상 제공 방법 및 영상 제공 장치
KR101719291B1 (ko) * 2016-01-13 2017-03-23 라인 가부시키가이샤 영상 제공 방법 및 영상 제공 장치
CN112399090B (zh) * 2019-08-14 2022-04-15 原相科技股份有限公司 具有两种曝光模式的摄像机及使用该摄像机的摄像系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990002387A (ko) * 1997-06-20 1999-01-15 윤종용 디지털 스틸 카메라의 셔터 속도 제어 장치 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990002387A (ko) * 1997-06-20 1999-01-15 윤종용 디지털 스틸 카메라의 셔터 속도 제어 장치 및 방법

Also Published As

Publication number Publication date
KR20070097552A (ko) 2007-10-04

Similar Documents

Publication Publication Date Title
JP4482037B2 (ja) デジタル画像形成の露出
CN110445988B (zh) 图像处理方法、装置、存储介质及电子设备
KR100890949B1 (ko) 이미지 데이터 처리를 위한 전자 장치 및 전자 장치에서의방법
US8189057B2 (en) Camera exposure optimization techniques that take camera and scene motion into account
US8988529B2 (en) Target tracking apparatus, image tracking apparatus, methods of controlling operation of same, and digital camera
CN101448085B (zh) 一种支持人脸检测的摄像处理方法和系统
RU2562918C2 (ru) Устройство для съемки изображения, система для съемки изображения и способ управления устройством для съемки изображения
US8310589B2 (en) Digital still camera including shooting control device and method of controlling same
CN110166707B (zh) 图像处理方法、装置、电子设备以及存储介质
CN110445989B (zh) 图像处理方法、装置、存储介质及电子设备
US10298853B2 (en) Image processing apparatus, method of controlling image processing apparatus, and imaging apparatus
EP2458846B1 (en) Image pickup apparatus that automatically determines shooting mode most suitable for shooting scene, control method therefor, and storage medium
JP2009139688A (ja) 焦点調節装置およびカメラ
CN108156369B (zh) 图像处理方法和装置
CN101848327A (zh) 摄像装置及图像处理方法
KR20150078275A (ko) 움직이는 피사체 촬영 장치 및 방법
US20140176754A1 (en) Image capturing apparatus and control method thereof
JP2015144475A (ja) 撮像装置、撮像装置の制御方法、プログラム及び記憶媒体
CN110047060A (zh) 图像处理方法、装置、存储介质及电子设备
CN101534394A (zh) 摄像装置和摄像方法
JP2010072619A (ja) 露出演算装置およびカメラ
KR100910361B1 (ko) 디지털 이미지화의 노출
JP2007158941A (ja) 被写体領域検出装置、撮像装置、被写体領域検出方法及びプログラム
JP2010183460A (ja) 撮像装置およびその制御方法
JP2013040997A (ja) 露出演算装置およびカメラ

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130701

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140703

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160630

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170704

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20180628

Year of fee payment: 10