KR101661215B1 - 영상 처리 방법 및 영상 처리 장치 - Google Patents

영상 처리 방법 및 영상 처리 장치 Download PDF

Info

Publication number
KR101661215B1
KR101661215B1 KR1020100078856A KR20100078856A KR101661215B1 KR 101661215 B1 KR101661215 B1 KR 101661215B1 KR 1020100078856 A KR1020100078856 A KR 1020100078856A KR 20100078856 A KR20100078856 A KR 20100078856A KR 101661215 B1 KR101661215 B1 KR 101661215B1
Authority
KR
South Korea
Prior art keywords
pixel
image
region
motion
feature map
Prior art date
Application number
KR1020100078856A
Other languages
English (en)
Other versions
KR20120016476A (ko
Inventor
장순근
민태홍
성환순
박래홍
Original Assignee
삼성전자주식회사
서강대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 서강대학교산학협력단 filed Critical 삼성전자주식회사
Priority to KR1020100078856A priority Critical patent/KR101661215B1/ko
Priority to US13/034,764 priority patent/US8854489B2/en
Publication of KR20120016476A publication Critical patent/KR20120016476A/ko
Application granted granted Critical
Publication of KR101661215B1 publication Critical patent/KR101661215B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

본 발명의 실시 예에 따르면, 노출 정도가 다른 적어도 하나 이상의 로우 다이나믹 레인지 영상들을 포화영역, 저포화영역 및 비포화영역으로 구별하고 상기 비포화영역의 패턴이 얼마나 유사한지 나타내는 특징맵들을 생성한 후 움직임화소 및 정지화소를 포함하는 최종특징맵들을 도출하여 상기 최종특징맵들과 상기 로우 다이나믹 레인지 영상들을 비교하여 상기 로우 다이나믹 레인지 영상들에 포함된 움직임영역 및 정지영역을 정의하고 정의된 상기 움직임영역에 제1잡음제거필터를 사용하고, 정의된 상기 정지영역에 제2잡음제거필터를 사용하여 잡음을 제거한 후 잡음이 제거된 상기 움직임영역의 가중치를 잡음이 제거된 상기 정지영역의 가중치보다 낮게 하여 상기 로우 다이나믹 레인지 영상들에 대응되는 레디언스맵을 생성하는 영상 처리 장치 및 영상 처리 방법을 제공한다.

Description

영상 처리 방법 및 영상 처리 장치{Image processing method and image processing apparatus}
본 발명은 광역 다이나믹 레인지 영상기술에 관한 영상 처리 방법 및 영상처리 장치에 관한 것이다.
광역 다이나믹 레인지(high dynamic range) 영상기술은 사람의 눈으로 실제 자연 영상을 볼 때, 인지하는 루미넌스(luminance)의 범위를 디지털 영상으로 표현하는 기술이다. 광역 다이나믹 레인지 영상기술은 의료 영상, 위성 영상, 물리적 기판 렌더링, 디지털 시네마 등에서 널리 사용될 수 있다. 광역 다이나믹 레인지 이미징(high dynamic range imaging)은 노출 정도를 달리한 적어도 하나 이상의 로우 다이나믹 레인지 영상을 통하여 광역의 다이나믹 레인지를 가지는 레디언스맵을 생성하고 톤매핑기술을 통해 디지털 표시 장치에 표시하기 위하여 디스플레이 영상을 생성하는 것이다.
그러나 사용자가 로우 다이나믹 영상들을 촬영하는 과정에서 피사체의 움직임이나 배경의 변화로 인해 광역 다이나믹 레인지 이미징시 상겹침 현상이 발생하는 문제점이 있다.
또한 사용자가 로우 다이나믹 영상들을 촬영하는 촬영조건이 실내환경이나 어두운 곳인 저조도 또는 고감도 조건인 경우 광역 다이나믹 레인지 이미징시 잡음이 발생하여 영상의 품질이 떨어지는 문제점이 있다.
본 발명은 상술한 문제를 해결하기 위하여, 광역 다이나믹 레인지 이미징시 상겹침 현상을 제거하고, 효과적으로 잡음을 제거하는 영상 처리 방법 및 영상 처리 장치를 제공하고자 한다.
본 발명의 일 측면에 따르면 노출 정도가 다른 적어도 하나 이상의 로우 다이나믹 레인지 영상들을 제공하는 로우다이나믹레인지영상제공부; 제공된 상기 로우 다이나믹 레인지 영상들 각각을 인텐시티값을 기준으로, 포화영역, 저포화영역 및 비포화영역으로 구별하여 표시하는 포화영역검출부; 상기 포화영역, 저포화영역 및 비포화영역으로 표시된 로우 다이나믹 레인지 영상들 중 상기 포화영역 및 저포화영역을 제외한 비포화영역의 패턴을 비교하여 상기 비포화영역의 패턴이 얼마나 유사한지 나타내는 특징맵들을 생성하는 특징맵생성부; 상기 특징맵들에 포함된 화소들을 움직임화소 및 정지화소로 변환하여 표시함으로써 최종특징맵들을 도출하는 최종특징맵도출부; 상기 최종특징맵들과 상기 로우 다이나믹 레인지 영상들을 비교하여 상기 로우 다이나믹 레인지 영상들에 포함된 움직임영역 및 정지영역을 정의하는 움직임영역정의부; 정의된 상기 움직임영역에 제1잡음제거필터를 사용하고, 정의된 상기 정지영역에 제2잡음제거필터를 사용하여 잡음을 제거하는 잡음제거부; 및 잡음이 제거된 상기 움직임영역의 가중치를 잡음이 제거된 상기 정지영역의 가중치보다 낮게 하여 상기 로우 다이나믹 레인지 영상들에 대응되는 레디언스맵을 생성하는 레디언스맵생성부;를 포함하는 영상 처리 장치를 제공한다.
여기서 상기 노출 정도가 다른 적어도 하나 이상의 로우 다이나믹 레인지 영상들 각각의 글로벌 모션을 보상하는 글로벌모션보상부; 를 더 포함한다.
여기서 상기 최종특징맵도출부는 상기 특징맵들에 포함된 화소들을 특징값들을 기준으로, 움직임화소, 미정의화소 및 정지화소로 정의하여 표시하는 3진변환부; 상기 3진변환부로부터 도출된 상기 특징맵들에 포함된 상기 미정의화소를 주변화소들의 밝기값의 평균을 임계값으로 하여 상기 움직임화소 또는 정지화소로 변환하여 표시하는 2진변환부; 및 상기 2진변환부로부터 도출된 상기 특징맵들에 포함된 상기 움직임화소 및 정지화소를 클러스터링하여 최종특징맵들을 도출하는 클러스터링부; 를 포함한다.
여기서 상기 로우다이나믹레인지영상제공부는 상기 로우 다이나믹 레인지 영상들로서, 부족노출된 제1영상, 적정노출된 제2영상 및 과노출된 제3영상을 제공한다.
여기서 상기 포화영역검출부는 상기 제1영상, 제2영상 및 제3영상 각각을 상기 포화영역, 저포화영역 및 비포화영역으로 구별하여 표시하며, 상기 특징맵생성부는, 상기 포화영역이 표시된 제2영상을 기준영상으로 하여, 상기 기준영상과 상기 포화영역이 표시된 제1영상의 상기 비포화영역을 비교하여 상기 비포화영역의 패턴이 얼마나 유사한지 제로-민 노말라이즈드 크로스 코릴레이션(ZNCC)을 사용하여 밝기값으로 나타내는 제1특징맵을 생성하고, 상기 기준영상과 상기 포화영역이 표시된 제3영상의 상기 비포화영역을 비교하여 상기 비포화영역의 패턴이 얼마나 유사한지 제로-민 노말라이즈드 크로스 코릴레이션(ZNCC)을 사용하여 밝기값으로 나타내는 제2특징맵을 생성한다.
여기서 상기 3진변환부는, 상기 특징값이 제1특징값 및 제1특징값보다 밝기가 큰 제2특징값을 포함하며, 상기 제1특징맵 및 상기 제2특징맵에 포함된 화소의 밝기값이 상기 제1특징값보다 작은 경우, 상기 화소를 상기 움직임화소로 정의하여 표시하고, 상기 제1특징맵 및 상기 제2특징맵에 포함된 화소의 밝기값이 상기 제1특징값보다 크고 제2특징값보다 작은 경우, 상기 화소를 상기 미정의화소로 정의하여 표시하고, 상기 제1특징맵 및 상기 제2특징맵에 포함된 화소의 밝기값이 상기 제2특징값보다 큰 경우, 상기 화소를 상기 정지화소로 정의하여 표시한다.
여기서 상기 2진변환부는 상기 미정의화소의 밝기값이 상기 임계값보다 작은 경우, 상기 미정의화소는 상기 움직임화소로 변환하여 표시하고, 상기 미정의화소의 밝기값이 상기 임계값보다 큰 경우, 상기 미정의화소는 상기 정지화소로 변환하여 표시한다.
여기서 상기 클러스터링부는 상기 움직임화소 및 정지화소에 모폴로지연산을 적용함으로써 클러스터링한다.
여기서 상기 움직임영역정의부는 상기 최종특징맵들이 상기 제1특징맵에 대응하는 제1최종특징맵과 상기 제2특징맵에 대응하는 제2최종특징맵을 포함하며, 상기 제1최종특징맵과 상기 제1영상을 비교하여 상기 움직임화소에 대응하는 상기 움직임영역을 정의 및 상기 정지화소에 대응하는 상기 정지영역을 정의하고, 상기 제2최종특징맵과 상기 제3영상을 비교하여 상기 움직임화소에 대응하는 상기 움직임영역을 정의 및 상기 정지화소에 대응하는 상기 정지영역을 정의한다.
여기서 상기 제1잡음제거필터는 상기 움직임영역의 3차원 스트럭처텐서를 사용하여 설계된 시공간잡음제거필터이며, 상기 제2잡음제거필터는 상기 정지영역의 2차원 스트럭처텐서를 사용하여 설계된 공간적잡음제거필터이다.
여기서 상기 레디언스맵생성부는 잡음이 제거된 상기 움직임영역의 가중치를, 잡음이 제거된 상기 정지영역의 가중치보다 낮게 하여, 상기 제1영상, 제2영상 및 제3영상에 대응되는 상기 레디언스맵을 드베벡 앤드 마릭의 방법으로 생성한다.
본 발명의 다른 측면에 의하면, 노출 정도가 다른 적어도 하나 이상의 로우 다이나믹 레인지 영상들을 제공하는 단계; 제공된 상기 로우 다이나믹 레인지 영상들 각각을 인텐시티값을 기준으로, 포화영역, 저포화영역 및 비포화영역으로 구별하여 표시하는 단계; 상기 포화영역, 저포화영역 및 비포화영역으로 표시된 상기 로우 다이나믹 레인지 영상들 중 상기 포화영역 및 저포화영역을 제외한 비포화영역의 패턴을 비교하여 상기 저포화영역 및 비포화영역의 패턴이 얼마나 유사한지 나타내는 특징맵들을 생성하는 단계; 상기 특징맵들에 포함된 화소들을 특징값들을 기준으로, 움직임화소, 미정의화소 및 정지화소로 정의하여 표시하는 단계; 상기 특징맵들에 포함된 상기 미정의화소는 주변화소들의 밝기값의 평균을 임계값으로 하여 상기 움직임화소 또는 정지화소로 변환하여 표시하는 단계; 상기 미정의화소가 변환된 상기 특징맵들에 포함된 상기 움직임화소 및 정지화소를 클러스터링하여 최종특징맵들을 도출하는 단계; 상기 최종특징맵들과 상기 로우 다이나믹 레인지 영상들을 비교하여 상기 로우 다이나믹 레인지 영상들에 포함된 움직임영역 및 정지영역을 정의하는 단계; 정의된 상기 움직임영역에 제1잡음제거필터를 사용하고, 정의된 상기 정지영역에 제2잡음제거필터를 사용하여 잡음을 제거하는 단계; 및 잡음이 제거된 상기 움직임영역의 가중치를 잡음이 제거된 상기 정지영역의 가중치보다 낮게 하여 상기 로우 다이나믹 레인지 영상들에 대응되는 레디언스맵을 생성하는 단계; 를 포함하는 영상 처리 방법을 제공한다.
여기서 상기 노출 정도가 다른 적어도 하나 이상의 로우 다이나믹 레인지 영상들 각각의 글로벌 모션을 보상하는 단계; 를 더 포함한다.
여기서 상기 로우 다이나믹 레인지 영상들은 부족노출된 제1영상, 적정노출된 제2영상, 과노출된 제3영상을 포함한다.
여기서 상기 제1영상, 제2영상 및 제3영상 각각을 상기 포화영역, 저포화영역 및 비포화영역으로 구별하여 표시하며, 상기 특징맵을 생성하는 단계는, 상기 포화영역이 표시된 제2영상을 기준영상으로 하여, 상기 기준영상과 상기 포화영역이 표시된 제1영상의 상기 비포화영역을 비교하여 상기 비포화영역의 패턴이 얼마나 유사한지 제로-민 노말라이즈드 크로스 코릴레이션(ZNCC)을 사용하여 밝기값으로 나타내는 제1특징맵을 생성하고, 상기 기준영상과 상기 포화영역이 표시된 제3영상의 상기 비포화영역을 비교하여 상기 비포화영역의 패턴이 얼마나 유사한지 제로-민 노말라이즈드 크로스 코릴레이션(ZNCC)을 사용하여 밝기값으로 나타내는 제2특징맵을 생성한다.
여기서 상기 움직임화소, 미정의화소 및 정지화소로 정의하여 표시하는 단계는, 상기 특징값이 제1특징값 및 제1특징값보다 밝기가 큰 제2특징값을 포함하며, 상기 제1특징맵 및 상기 제2특징맵에 포함된 화소의 밝기값이 상기 제1특징값보다 작은 경우, 상기 화소를 상기 움직임화소로 정의하여 표시하고, 상기 제1특징맵 및 상기 제2특징맵에 포함된 화소의 밝기값이 상기 제1특징값보다 크고 제2특징값보다 작은 경우, 상기 화소를 상기 미정의화소로 정의하여 표시하고, 상기 제1특징맵 및 상기 제2특징맵에 포함된 화소의 밝기값이 상기 제2특징값보다 큰 경우, 상기 화소를 상기 정지화소로 정의하여 표시한다.
여기서 상기 미정의화소를 변환하는 단계는 상기 미정의화소의 밝기값이 상기 임계값보다 작은 경우, 상기 미정의화소는 상기 움직임화소로 변환하여 표시하고, 상기 미정의화소의 밝기값이 상기 임계값보다 큰 경우, 상기 미정의화소는 상기 정지화소로 변환하여 표시한다.
여기서 상기 클러스터링하는 단계는 상기 움직임화소 및 정지화소에 모폴로지연산을 적용함으로써 클러스터링한다.
여기서 상기 움직임영역 및 정지영역을 정의하는 단계는 상기 최종특징맵들이 상기 제1특징맵에 대응하는 제1최종특징맵과 상기 제2특징맵에 대응하는 제2최종특징맵을 포함하며, 상기 제1최종특징맵과 상기 제1영상을 비교하여 상기 움직임화소에 대응하는 상기 움직임영역을 정의 및 상기 정지화소에 대응하는 상기 정지영역을 정의하고, 상기 제2최종특징맵과 상기 제3영상을 비교하여 상기 움직임화소에 대응하는 상기 움직임영역을 정의 및 상기 정지화소에 대응하는 상기 정지영역을 정의한다.
여기서 상기 제1잡음제거필터는 상기 움직임영역의 3차원 스트럭처텐서를 사용하여 설계된 시공간잡음제거필터이며, 상기 제2잡음제거필터는 상기 정지영역의 2차원 스트럭처텐서를 사용하여 설계된 공간적잡음제거필터이다.
여기서 상기 레디언스 맵을 생성하는 단계는 잡음이 제거된 상기 움직임영역의 가중치를, 잡음이 제거된 상기 정지영역의 가중치보다 낮게 하여, 상기 제1영상, 제2영상 및 제3영상에 대응되는 상기 레디언스맵을 드베벡 앤드 마릭의 방법으로 생성한다.
여기서 상기 로우 다이나믹 레인지 영상들은 잡음이 발생하는 촬영조건에서 촬영된 영상이다.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.
본 발명에 따르면, 포화영역을 제외한 영역을 통해 특징맵을 도출하고, 주변화소들의 밝기의 평균값을 임계값으로 하여 미정의화소를 제거한 최종특징맵을 도출함으로써, 보다 정밀하게 영상의 움직임영역 및 정지영역을 검출할 수 있는 특징이 있다.
또한 정밀하게 검출된 움직임영역과 정지영역에 서로 다른 종류의 필터를 사용하여 잡음을 제거하고, 움직임영역의 가중치를 정지영역의 가중치보다 작게하여 레디언스맵을 생성함으로써, 잡음 및 상겸칩현상이 제거된 레디언스맵을 얻을 수 있다.
도 1은 본 발명에 관한 영상 처리 장치를 나타낸 블럭도이다.
도 2는 도 1에 도시된 영상 신호 처리부의 일 실시예를 도시한 블록도이다.
도 3은 제로-민 노말라이즈드 크로스 코릴레이션(ZNCC)을 사용하여 영상의 유사도를 나타내는 것을 설명한 도면이다.
도 4는 도 1에 도시된 영상 신호 처리부의 다른 실시예를 도시한 블록도이다.
도 5는 영상의 글로벌 모션을 보상하는 것을 설명한 도면이다.
도 6은 영상의 클러스터링을 설명한 도면이다.
도 7 및 도 8은 본 발명의 일 실시 예에 관한 영상 처리 방법을 도면이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 잇는 것과 유사하게, 본 발명은 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 매커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
이하, 본 발명의 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 본 발명에 관한 영상 처리 장치를 나타낸 블럭도이다. 도 1에서는 영상 처리 장치의 예로 디지털 카메라(100)를 도시한다. 그러나 본 발명에 의한 영상 처리 장치는 도 1의 디지털 카메라(100)에 한정되지 않고, 디지털 일안 반사식 카메라(digital single-lens reflex camera, DSLR), 하이브리드 카메라(hybrid camera) 외에도 다양한 디지털 기기로 구현될 수 있다. 도 1에 도시된 디지털 카메라(100)의 구성을 설명함에 있어서, 동작에 따라 상세히 설명한다.
우선 피사체를 촬영하는 과정에 대해 설명하면, 피사체로부터의 광속은 촬상부(110)의 광학계인 줌 렌즈(111) 및 포커스 렌즈(113)를 투과하고, 조리개(115)의 개폐 정도에 따라 그 광량이 조정된 후, 촬상 소자(117)의 수광면에 이르러 피사체의 상이 결상된다. 촬상 소자(117)의 수광면에 결상되는 상은 광전 변환 처리에 의하여 전기적인 영상 신호로 변환된다.
촬상 소자(117)로는 광학 신호를 전기 신호로 변환하는 CCD(Charge Coupled Device) 또는 CIS(Complementary Metal Oxide Semiconductor Image Sensor) 등을 사용할 수 있다. 조리개(115)는 통상 상태 또는 릴리스 버튼을 반쯤 눌러 형성된 첫 번째 릴리스 신호를 받고 행해지는 오토포커싱 알고리즘 실행시에는 개방 상태가 되고, 상기 릴리스 버튼을 지그시 눌러 형성된 두 번째 릴리스 신호를 받아 노출 처리가 실행될 수 있다.
상기 줌 렌즈(111) 및 포커스 렌즈(113)는 각각 줌 렌즈 구동부(112) 포커스 렌즈 구동부(113)에 의해 그 위치 등이 제어된다. 예를 들어 광각(wide angle)-줌 신호가 발생하면 줌 렌즈(111)의 포커스 거리(focal length)가 짧아져서 화각이 넓어지고, 망원(telephoto)-줌 신호가 발생하면 줌 렌즈(111)의 포커스 거리가 길어져서 화각이 좁아진다. 줌 렌즈(111)의 위치가 설정된 상태에서 포커스 렌즈(113)의 위치가 조정되므로, 화각은 포커스 렌즈(113)의 위치에 대하여 거의 영향을 받지 않는다. 조리개(115)는 조리개 구동부(114)에 의해 개방 정도 등이 제어된다. 촬상 소자(117)도 촬상 소자 제어부(118)에 의해 감도 등이 제어된다.
이들 줌 렌즈 구동부(112), 포커스 렌즈 구동부(114), 조리개 구동부(116), 및 촬상 소자 제어부(118)는 노출 정보, 초점 정보 등을 기준으로 CPU(200)에서 연산된 결과에 따라 해당 구성부들을 제어한다.
그리고 영상 신호 형성 과정에 관하여 설명하면, 촬상 소자(121)로부터 출력된 영상 신호는 영상 신호 처리부(120)에 출력된다. 영상 신호 처리부(120)에서는 촬상 소자(117)로부터 입력되는 영상 신호가 아날로그 신호인 경우 디지털 신호로 변환하고, 변환된 디지털 영상 신호에 대하여 각종의 화상 처리가 행해진다. 이러한 처리가 행해진 영상 신호는 기억부(130)에 임시 저장된다.
구체적으로 영상 신호 처리부(120)는 사람의 시각에 맞게 영상 데이터를 변환하도록 오토 화이트 밸런스(Auto White Balance)나 오토익스포저(Auto Exposure), 감마 컬렉션(Gamma Correction) 등의 신호 처리를 행하여 화질을 개선하고, 개선된 화질의 영상 신호를 출력하는 역할을 한다. 또한, 신호 처리부(130)에서 색필터 배열보간(color filter array interpolation), 색 매트릭스(color matrix), 색보정(color correction), 색 향상(color enhancement) 등의 영상 처리를 수행하게 된다.
특히 본 발명의 영상 신호 처리부(120)는 노출 정도가 다른 적어도 하나 이상의 로우 다이나믹 레인지 영상들을 제공하고, 제공된 로우 다이나믹 레인지 영상들 각각을 포화영역, 저포화영역 및 비포화영역으로 구별하여 표시할 수 있다. 이어서 로우 다이나믹 레인지 영상들을 비교하여 상기 저포화영역 및 비포화영역의 패턴이 얼마나 유사한지 나타내는 특징맵들을 생성할 수 있다. 이러한 특징맵들에 포함된 화소들을 움직임화소 및 정지화소로 변환하여 표시함으로써 최종특징맵들을 도출하고, 최종특징맵들과 로우 다이나믹 레인지 영상들을 비교하여 로우 다이나믹 레인지 영상들에 포함된 움직임영역 및 정지영역을 정의할 수 있다. 이렇게 정의된 움직임영역과 정지영역에 서로 다른 필터를 사용하여 잡음을 제거한 후, 잡음이 제거된 움직임영역의 가중치를 정지영역의 가중치보다 낮게 하여 로우 다이나믹 레인지 영상들에 대응되는 레디언스맵을 생성할 수 있다. 이러한 영상 신호 처리부(120)의 동작에 관해서는 이하 도 2 및 도 4에서 자세히 후술한다.
기억부(130)는 전원의 공급 여부와 관계없이 상기 디지털 카메라(100)의 동작에 관한 프로그램이 저장되는 프로그램 기억부와, 전원이 공급되는 동안 상기 영상 데이터와 그 밖에 데이터들을 임시 저장하는 주기억부를 구비할 수 있다.
프로그램 기억부에는 디지털 카메라(100)를 작동하는 운영 프로그램 및 다양한 응용 프로그램들이 저장되어 있다. 그리고 상기 프로그램 기억부에 저장된 프로그램들에 따라 CPU(170)는 각 구성부들을 제어한다.
주기억부는 영상 신호 처리부(120) 또는 보조 기억부(140) 등으로부터 출력된 영상 신호를 임시로 저장한다.
상기 주기억부는 디지털 카메라(100)가 동작하도록 전원이 공급되는 것과 별개로, 전원부(160)가 직접 연결될 수 있다. 따라서 디지털 카메라(100)가 부팅을 빨리 하도록 미리 프로그램 기억부에 저장된 코드를 주기억부에 복사 및 실행 가능한 코드로 변경할 수 있으며, 또한 디지털 카메라(100)를 재 부팅하는 경우 상기 주기억부에 저장된 데이터들을 빨리 읽어 올 수 있다.
주기억부에 저장된 영상 신호는 표시 구동부(155)로 출력되어 아날로그 신호로 변환되는 것과 동시에 표시 출력하는데 있어서 최적인 형태의 영상 신호로 변환된다. 그리고 변환된 상기 영상 신호는 표시부(150)에 디스플레이 되어 소정 영상으로 사용자에게 보여 질 수 있다. 상기 표시부(150)는 촬영 모드를 진행하는 동안에 촬상 소자(117)에 의해 얻어진 영상 신호를 연속적으로 표시하여 촬영 범위를 결정하기 위한 뷰 파인더 수단으로서의 역할을 하기도 한다. 이와 같은 표시부(150)로 액정 표시장치(LCD), 유기 발광 표시장치(OLED), 전기 영동 표시장치(EDD) 등 다양한 표시장치가 사용될 수 있다.
상기와 같이 생성된 영상 신호를 기록하는 과정에 대해서 설명하면, 상기 영상 신호는 기억부(130)에 임시 저장되고, 이때 보조 기억부(140)에는 상기 영상 신호뿐만 아니라 상기 영상 신호에 관한 다양한 정보가 함께 저장된다. 그리고 저장된 영상 신호와 정보는 압축/신장부(145)에 출력된다. 압축/신장부(1450)에서는 압축 회로에 의해 저장을 위한 최적의 형태로 압축 처리 즉, JPEG과 같은 부호화 처리가 행해져 이미지 파일을 형성하고, 상기 이미지 파일은 보조 기억부(140)에 저장된다.
보조 기억부(140)로 외장형의 플래시 메모리 등의 고정형의 반도체 메모리나, 카드 형상이나 스틱 형상으로 되고 장치에 대하여 착탈이 자유롭게 가능한 카드형 플래시 메모리 등의 반도체 메모리 외 하드 디스크나 플로피 디스크 등의 자기 기억 매체 등의 다양한 형태의 것이 사용될 수 있다.
영상을 재생하는 과정을 설명하면, 보조 기억부(140)에 압축되어 기록된 이미지 파일은 압축/신장부(145)에 출력되고 신장 회로에 의해 신장 처리, 즉 복호화 처리가 행해져 상기 이미지 파일로부터 영상 신호를 추출한다. 그리고 상기 영상 신호는 기억부(130)로 출력된다. 상기 영상 신호는 기억부(130)에 임시 저장된 후, 표시 구동부(155)를 통해 표시부(150)에서 소정의 영상으로 재생될 수 있다.
한편, 상기 디지털 카메라(100)는 사용자 등의 외부 신호를 입력 받는 조작부(170)를 포함한다. 상기 조작부(170)로 정해진 시간 동안 촬상 소자(121)에 빛에 노출하기 위해 열리고 닫히는 셔터 릴리즈 버튼, 전원을 공급하기 위해 입력하는 전원 버튼, 입력에 따라 화각을 넓어지게 하거나 화각을 좁아지게 하는 광각-줌 버튼 및 망원-줌 버튼과, 문자 입력 또는 촬영 모드, 재생 모드 등의 모드 선택, 화이트 밸런스 설정 기능 선택, 노출 설정 기능 선택 등의 다양한 기능 버튼들이 있다.
또한, 플래시(181) 및 상기 플래시(181)를 구동하는 플래시 구동부(182)를 포함한다. 플래시(181)는 어두운 곳에서 촬영할 경우 밝은 빛을 순간적으로 비추어 피사체를 밝게 해주는 발광 장치이다.
스피커(183) 및 램프(185) 각각은 음성 신호 및 빛의 신호를 출력하여 디지털 카메라(100)의 동작 상태 등을 알리는 기능을 수행할 수 있다. 특히, 본 발명에서는 수동 모드에서 사용자가 촬영 변수를 설정한 시점과 촬영하고자 하는 시점의 촬영 조건이 변경된 경우, 이를 알리는 알림 신호를 상기 스피커(183) 또는 램프(185)를 통해 경고음, 또는 광신호로서 구현될 수 있다. 상기 스피커(183)는 스피커 구동부(184)에 의해 음성의 종류, 음성 크기 등이 제어되며, 램프(185)는 램프 구동부(186)에 의해 발광 여부, 발광 시간, 발광 종류 등이 제어될 수 있다.
CPU(200)는 기억부(130)에 저장된 운용 시스템 및 응용 프로그램에 따라 연산 처리하고, 상기 연산 결과를 임시 저장하며, 상기 연산 결과에 따라 해당 구성부를 제어하여 상기와 같이 디지털 카메라(100)가 동작하도록 한다.
이하 도 1의 영상 신호 처리부(120)에 대하여 도 2 및 도 3을 참조하여 상세히 설명한다.
도 2는 영상 신호 처리부(120)의 일 실시예를 도시한 블록도이다.
도 2를 참조하면 영상 신호 처리부(120)는 노출 정도가 다른 적어도 하나 이상의 로우 다이나믹 레인지 영상들을 제공하는 로우다이나믹레인지영상제공부(121)를 포함한다. 로우 다이나믹 레인지 영상이란, 디지털 카메라(100)에서 제공할 수 있는 노출값들로 취득이 가능한 영상을 의미한다. 본 발명의 일 실시 예에 의하면, 로우 다이나믹 레인지 영상은 디지털 카메라(100)의 자동단계노출(Auto Exposure Bracketing; AEB) 기능을 이용하여 노출 시간을 달리하여 촬영한 적어도 하나 이상의 영상일 수 있다. 이하에서는 설명의 편의를 위하여, 로우 다이나믹 레인지 영상들은 3장으로 한정한다. 구체적으로, 노출시간을 짧게 하여 부족노출로 촬영된 제1영상(LDR1), 노출시간을 적정하게 하여 적정노출로 촬영된 제2영상(LDR2) 및 노출시간을 길게 하여 과노출로 촬영된 제3영상(LDR3)이 그것이다. 그러나 본 발명은 이에 한정되지 않으며, 로우 다이나믹 레인지 영상들은 노출 시간을 달리하여 촬영된 4장 또는 5장의 영상들일 수 있다.
포화영역검출부(122)는 로우다이나믹레인지영상제공부(121)로부터 제공된 로우 다이나믹 레인지 영상들 각각을 포화영역(saturation region), 저포화영역(under-saturation region) 및 비포화영역(non-saturation region)으로 구별하여 표시한다. 여기서 포화영역은 디지털 카메라(100)가 저장 또는 표현할 수 있는 다이나믹 레인지를 넘는 값이 촬영되어, 포화된 영역을 의미하며, 저포화영역은 이와 반대로 촬영된 로우다이나믹레인지 영상 내에서 어두운 영역을 의미하며, 비포화영역은 포화영역과 저포화영역을 제외한 영역을 의미한다. 또한 상술한 3가지 영역을 구별하는 기준은 영상의 인텐시티(intensity)값이다. 인텐시티값은 화소의 밝기값, 컬러값과 같은 특징값 중 하나이다. 포화영역은 영상이 저장 또는 표현할 수 있는 최대 인텐시티값(255)을 갖는 영역이며, 저포화영역은 영상이 저장 또는 표현할 수 있는 최소 인텐시티값(0)을 갖는 영역이다. 비포화영역은 최대 및 최소 인텐시티값을 제외한 나머지 인텐시티값(1 내지 254) 을 갖는 영역이다. 포화영역검출부(122)는 제1영상(LDR1)을 입력받아 포화영역, 저포화영역 및 비포화영역으로 표시된 제1`영상(LDR1`)을 출력할 수 있다. 여기서 제1`영상(LDR1`)은 포화영역이 밝기값 255인 흰색으로, 비포화영역이 밝기값 0인 검정색으로, 저포화영역이 밝기값 128인 회색으로 표시될 수 있다. 같은 방식으로 포화영역검출부(122)는 제2영상(LDR2)을 입력받아 포화영역, 저포화영역 및 비포화영역으로 표시된 제2`영상(LDR2`)을 출력할 수 있다. 또한 포화영역검출부(122)는 제3영상(LDR3)을 입력받아 포화영역, 저포화영역 및 비포화영역으로 표시된 제3`영상(LDR3`)을 출력할 수 있다.
특징맵(feature map) 생성부(123)는 포화영역, 저포화영역 및 비포화영역으로 표시된 로우 다이나믹 레인지 영상들의 비포화영역을 비교하여 비포화영역의 패턴이 얼마나 유사한지 나타내는 특징맵들을 생성한다. 구체적으로 제2`영상(LDR2`)을 기준영상으로 하여 제2`영상(LDR2`)과 제1`영상(LDR1`)을 비교하며, 같은 방식으로 제2`영상(LDR2`)과 제3`영상(LDR3`)을 비교한다. 여기서 각 영상들의 포화영역과 저포화영역을 제외한 비포화영역만의 패턴을 비교하는데, 이유는 포화영역 및 저포화영역에서 잘못된 검출 (false detection)이 주로 나타나서, 상겹침 현상이 발생하는 영역이기 때문이다. 여기서, 잘못된 검출이란, 움직임이 없는 영역이지만 노출 정도의 차이나, 잡음에 의하여 움직임이 있는 것으로 잘못 분류되는 영역을 지칭한다. 한편, 특정 영역의 패턴이 얼마나 유사한지는 제로-민 노말라이즈드 크로스 코릴레이션(Zero-mean normalized cross correlation; ZNCC)을 사용하여 0부터 1의 값으로 나타낼 수 있다.
도 3은 ZNCC를 사용하여 패턴의 유사도를 나타내는 것을 나타낸 도면이다.
도 3을 참조하면, 기준이 되는 기준영상과 입력영상에 일정한 크기의 마스크를 같은 위치에 두고, 마스크에 포함된 화소의 밝기, 에지성분, 색좌표 등을 비교한 후 이를 정규화(normalized)하여 상관 정도를 0부터 1까지의 값 중 하나로 나타내는 것이다. 여기서 상관 정도가 0에 가까우면 양 패턴의 유사도가 낮은 것이며, 상관 정도가 1에 가까우면 양 패턴을 완전히 동일한 것이다. ZNCC를 사용하여 패턴의 유사도를 나타내는 방법은 영상 처리 분야에서 당업자에게 공지되어 있으므로 자세한 설명은 생략한다.
본 발명의 일 실시 예에 의한 특징맵생성부(123)는 제2`영상(LDR2`)과 제1`영상(LDR1`)의 비포화영역을 비교하여 패턴의 유사도를 0 부터 255의 밝기값으로 표현하는 제1특징맵(FM1)을 생성할 수 있다. 여기서 ZNCC에 의한 상관 정도가 0일 때 밝기값 0에 대응하며, ZNCC에 의한 상관 정도가 1일 때 밝기값 255에 대응할 수 있다. 같은 방식으로 제2`영상(LDR2`)과 제3`영상(LDR3`)의 비포화영역을 비교하여 패턴의 유사도를 0 부터 255의 밝기값으로 표현하는 제2특징맵(FM2)을 생성할 수 있다. 이 때, 제1` 영상(LDR1`), 제2`영상(LDR2`) 및 제3`영상(LDR3`)의 포화영역에 대응하는 부분은 제1특징맵(FM1) 및 제1특징맵(FM2)에서도 그대로 밝기값 255로 표현한다. 또한 저포화영역에 대응하는 부분은 제1특징맵(FM1) 및 제1특징맵(FM2)에서도 그대로 밝기값 0으로 표현한다.
최종특징맵도출부(124)는 특징맵도출부(123)에서 도출된 제1특징맵(FM1) 및 제2특징맵(FM2)에 포함된 화소들을 움직임화소 및 정지화소로 변환하여 표시함으로써 최종특징맵들을 도출한다. 즉, 최종특징맵도출부(124)는 제1특징맵(FM1)이 바이너리(binary)값으로 표시된 제1최종특징맵(FFM1)을 도출하며, 같은 방식으로 제2특징맵(FM2)이 바이너리값으로 표시된 제2최종특징맵(FFM2)을 도출한다. 최종특징맵도출부에 대해서는 도 4를 참조하여 자세하게 설명한다.
움직임영역정의부(125)는 최종특징맵도출부(124)로부터 도출된 최종특징맵들과 로우 다이나믹 레인지 영상들을 비교하여 로우 다이나믹 레인지 영상들에 포함된 움직임영역 및 정지영역을 정의한다. 즉, 최종특징맵들을 마스크로 사용하여 로우 다이나믹 레인지 영상들에 포함된 움직임영역 및 정지영역을 정의하는 것이다. 예를 들어, 최종특징맵에서 수평, 수직으로 (100,100) 의 위치가 움직임 영역이었다면, 로우 다이나믹 레인지 영상에서 수평, 수직으로 (100, 100)의 위치가 움직임 영역이 된다.
움직임영역정의부(125)는 제1최종특징맵(FFM1)에 포함된 움직임화소에 대응하는 위치에 있는 제1영상(LDR1)의 화소들을 움직임영역으로 정의한다. 같은 방식으로 제1최종특징맵(FFM1)에 포함된 정지화소에 대응하는 위치에 있는 제1영상(LDR1)의 화소들을 정지영역으로 정의한다. 유사하게 제2최종특징맵(FFM2)은 제3영상(LDR3)과 비교하여 움직임화소에 대응하는 움직임영역 및 정지화소에 대응하는 정지영역을 정의한다. 이로부터, 제1영상(LDR1) 및 제3영상(LDR3)의 움직임영역 및 정지영역이 정의된다.
특히 본 발명에 의하면, 포화영역 및 저포화영역에서 발생할 수 있는 잘못된 검출 (false detection)에 의한 오류를 줄이기 위하여 포화영역 및 저포화영역은 움직임영역 정의에서 배제한다. 따라서 본 발명은 보다 정확하게 움직임영역 및 정지영역을 정의할 수 있는 특징이 있다.
잡음제거부(126)는 움직임영역정의부(125)로부터 정의된 움직임영역에 제1잡음제거필터를 사용하고, 정의된 정지영역에 제2잡음제거필터를 사용하여 잡음을 제거한다. 여기서 제1잡음제거필터는 움직임영역의 3차원 스트럭처텐서(structure tensor)를 사용하여 설계된 시공간잡음제거필터(spatio-temporal noise reduction filter)이며, 제2잡음제거필터는 정지영역의 2차원 스트럭처텐서(structure tensor)를 사용하여 설계된 공간적잡음제거필터(temporal noise reduction filter)이다.
먼저 시공간잡음제거필터의 커널(kernel)을 구하는 방법은 다음과 같다. 로우 다이나믹 레인지 영상들로부터 3차원 스트럭처텐서를 구하고, 이 스트럭쳐텐서의 아이겐밸류(eigenvalue)를 구한 다음, 아이겐밸류에 수학적 변형을 가하여 행렬로 구성함으로써 3차원 형태의 가우시안 커널을 설계한다. 시공간잡음제거필터의 커널은 영상의 구조적 특성을 분석하여 시공간적으로 평탄한 부분은 넓고 에지 부분은 좁은 형태를 갖도록 설계된다. 따라서 공간적 측면에서는 에지의 손실을 최소화하고 시간적 측면에서는 상겹침현상을 방지할 수 있다. 다음으로 공간잡음제거필터의 커널을 구하는 방법은 다음과 같다. 각 로우 다이나믹 레인지 영상들로부터 2차원 스트럭처텐서를 구하고, 이 스트럭쳐텐서의 아이겐밸류(eigenvalue)를 구한 다음, 아이겐밸류에 수학적 변형을 가하여 행렬로 구성함으로써 2차원 형태의 가우시안 커널을 설계한다. 한편, 시공간잡음제거필터는 로우 다이나믹 레인지 영상들간의 차이와 주변 화소간의 차이를 동시에 보고 가우시안 커널을 설계한다. 즉 영상의 시간적 및 공간적 특성을 모두 고려하는 것이다. 반면, 공간잡음제거필터는 로우 다이나믹레인지 영상들간의 차이는 보지 않고, 단지 주변 화소간의 차이만을 보고 가우시안 커널을 설계한다. 즉 영상의 공간적 특성만을 고려하는 것이다. 정지영역의 경우, 공간잡음제거필터를 사용하여 잡음을 제거한 뒤, 가중평균을 통해 시간적 잡음제거를 추가로 수행할 수 있다.
본 발명에 의하면, 움직임영역과 정지영역을 구별하여 서로 다른 잡음제거 필터를 사용함으로써, 보다 효율적으로 잡음을 제거할 수 있는 장점이 있다. 또한 움직임영역과 정지영역에 대해 다른 형태의 필터를 사용하여 연산 속도도 향상된다.
레디언스맵생성부(127)는 잡음이 제거된 로우 다이나믹 레인지 영상들에 대응되는 레디언스맵(RM)을 생성한다. 레디언스맵(radiance map)이란 노출정도를 달리하여 촬영한 적어도 하나 이상의 로우 다이나믹 레인지 영상을 통해 얻은 단일의 영상을 의미한다. 레디언스맵(RM)은 광역적인 다이나믹 레인지를 가진 영상이다. 로우 다이나믹 레인지 영상을 통해 레디언스맵(RM)을 얻는 방법으로 데베벡 앤드 마릭(Debevec and Malik)의 방법이 있다. 데베벡 앤드 마릭(Debevec and Malik)의 방법으로 레디언스맵(RM)을 도출하는 구체적인 과정은 영상 처리 분야에서 알려진 과정이므로 자세한 설명을 생략한다.
본 발명의 일 실시 예에 의하면 레디언스맵생성부(127)는 잡음이 제거된 상기 움직임영역의 가중치를 잡음이 제거된 상기 정지영역의 가중치보다 낮게 하여 상기 로우 다이나믹 레인지 영상들에 대응되는 레디언스맵(RM)을 생성한다. 여기서 레디언스맵(RM)은 하이 다이나믹 레인지를 가진 영상이다. 자세하게는, 제1영상(LDR1) 및 제3영상(LDR3)에 포함되며 잡음이 제거된 움직임영역의 가중치를, 제1영상(LDR1) 및 제3영상(LDR3)에 포함되며 잡음이 제거된 정지영역의 가중치보다 낮게 하여 레디언스맵(RM)을 생성한다. 제2영상(LDR2)의 경우, 하이 다이나믹 레인지 영상 생성의 기준 영상이므로, 움직임영역과 정지영역을 정의하지 않고, 일반적인 잡음제거 필터(general noise reduction filter)를 사용하여 잡음을 제거한 후 레디언스맵(RM) 생성에 사용할 수 있다.
도 4는 도 1의 영상 신호 처리부(120a)의 다른 실시예를 나타낸 것이다.
도 4에 의하면, 영상 신호 처리부(120a)는 도 2의 영상 신호 처리부(120)와 비교하여 로우다이나믹레인지영상제공부(121), 포화영역검출부(122), 특징맵생성부(123), 최종특징맵도출부(124), 움직임영역정의부(125), 잡음제거부(126) 및 레디언스맵생성부(127) 를 구비하는 것은 동일하다. 그러나, 글로벌모션보상부(1211)를 구비하는 점이 상이하다. 더불어, 최종특징맵도출부(124)는 3진변환부(1241), 2진변환부(1242) 및 클러스터링부(1243)를 더 포함하는 것이 상이하다. 이하에서는 상이점만을 구체적으로 설명한다.
글로벌모션보상부(1211)는 제2영상(LDR2)을 기준으로 제1영상(LDR1) 및 제3영상(LDR3) 각각의 글로벌 모션(global motion)을 보상한다. 글로벌 모션은 제1영상(LDR1)을 촬영하고, 제2 영상(LDR2) 및 제3 영상(LDR3)을 촬영 하는 사이에 디지털 카메라(100)의 위치가 바뀜으로 인하여, 전체 픽셀이 쉬프트(shift) 된 것을 의미한다. 글로벌 모션 보상은 이러한 전체 픽셀의 쉬프트를 보상하여 제1영상, 제2 영상 및 제3 영상의 픽셀들이 서로 대응되도록 정렬(align)시키는 것을 말한다.
도 5는 글로벌 모션을 보상하는 과정을 나타낸 그림이다.
도 5를 참조하면, 제2영상(LDR2)을 기준으로 전체 픽셀의 쉬프트(shift)를 보상하여 제1영상(LDR1), 제2영상(LDR2) 및 제3영상(LDR3)의 픽셀들이 서로 대응되도록 정렬(align)시킨다. 이와 같은 과정을 통하여 복수의 영상을 획득하는 동안 발생한 손떨림에 의해 발생한 전체 픽셀의 쉬프트가 보상된다. 글로벌모션을 수행함으로써 손떨림에 의해 발생하는 에러를 제거할 수 있다.
최종특징맵도출부(124)는 특징맵생성부(123)에서 생성된 제1특징맵(FM1) 및 제2특징맵(FM2)에 포함된 화소들을 움직임화소 및 정지화소로 변환하여 표시함으로써 제1특징맵(FM1)에 대응하는 제1최종특징맵(FFM1) 및 제2특징맵(FM2)에 대응하는 제2최종특징맵(FFM2)을 도출한다. 최종특징맵도출부(124)는 3진변환부(1241), 2진변환부(1242) 및 클러스터링부(1243)를 포함할 수 있다. 이로부터, 최종특징맵들을 형성하기까지 3진변환부(1241), 2진변환부(1242) 및 클러스터링부(1243)에 의한 3단계의 과정을 거칠 수 있다. 그러나 본 발명은 이에 한정되지 않으며, 상술한 3단계 중 일부 단계만 수행될 수도 있고, 영상 처리 분야에서 공지된 다른 단계가 더 추가될 수 있음을 물론이다.
3진(tri-level)변환부(1241)는 특징맵들에 포함된 화소들을 특징값(feature value)들을 기준으로, 움직임화소(moving pixel), 미정의화소(unknown pixel) 및 정지화소(non-moving pixel)로 정의하여 표시한다. 여기서 특징값은 임의로 설정한 값일 수도 있고, 디지털 카메라의 제조시 미리 저장된 값일 수 있다. 특징값은 밝기값일 수 있고, 제1특징값과 제1특징값보다 밝기가 큰 제2특징값을 포함할 수 있다. 3진변환부(1241)는 제1특징맵(FM1)에 포함된 특정 화소의 밝기값을 제1특징값 및/또는 제2특징값과 비교한다. 예를 들어 화소의 밝기값이 제1특징값보다 작은 경우, 해당 화소를 움직임화소로 정의하여 표시한다. 화소의 밝기값이 제1특징값보다 크고 제2특징값보다 작은 경우, 미정의화소로 정의하여 표시한다. 역시, 화소의 밝기값이 제2특징값보다 큰 경우, 정지화소로 정의하여 표시한다. 여기서 움직임화소, 미정의화소 및 정지화소는 밝기값으로 표시될 수 있으며, 예를 들어 움직임화소는 밝기값 255의 흰색으로, 미정의화소는 밝기값 128의 회색으로, 정지화소는 밝기값 0의 검정색으로 표시될 수 있다. 3진변환부(1241)는 화소의 밝기값을 3가지로 재구성하여 표시한 제1`특징맵(FM1`)과 제2`특징맵(FM2`)을 도출할 수 있다.
본 발명의 실시예에 의하면, 3진변환부(1241)가 존재함으로써 3진변환부(1241) 없이 2진변환부(1242)에 의해 화소를 분류할 때 보다 정밀하게 움직임화소 및 정지화소를 분류할 수 있게 된다.
2진변환부(1242)는 3진변환부(1241)에서 도출된 특징맵들에 포함된 미정의화소를 주변화소들의 밝기값의 평균을 임계값으로 하여 움직임화소 또는 정지화소로 변환하여 표시한다. 구체적으로, 제1`특징맵(FM1`)과 제2`특징맵(FM2`)에 포함된 미정의화소의 밝기값이 임계값보다 작은 경우, 그 미정의화소는 움직임화소로 변환하여 밝기값 255의 흰색으로 표시하고, 미정의화소의 밝기값이 임계값보다 큰 경우, 그 미정의화소는 정지화소로 변환하여 밝기값 0인 검정색으로 표시한다. 2진변환부(1242)는 미정의화소를 제거함으로써 화소의 밝기값을 2가지로 재구성하여 표시한 제1``특징맵(FM1``)과 제2``특징맵(FM2``)을 도출할 수 있다.
본 발명의 실시예에 의한 2진변환부(1242)는 미정의화소의 주변화소들의 밝기값의 평균을 임계값으로 하여 미정의화소를 변환함으로써, 보다 정확하게 미정의화소를 제거하는 특징이 있다. 여기서 주변화소란, 미정의화소와 직접 접한 화소를 의미할 수 있나 이에 한정되지 않고 구체적인 개수 및 범위는 사용자나 제조자에 의해 임의로 정해질 수 있다.
클러스터링부(1243)는 2진변환부(1242)에서 도출된 특징맵들에 포함된 움직임화소 및 정지화소를 클러스터링(clusturing)하여 최종특징맵들을 도출한다. 구체적으로, 클러스터링부(1243)는 제1``특징맵(FM1``) 및 제2``특징맵(FM2``)에 포함된 움직임화소 및 정지화소에 모폴로지(morphology)연산을 적용함으로써 클러스터링한다.
도 6은 모폴로지연산을 적용함으로써 클러스터링하는 과정을 나타낸 도면이다.
도 6을 참조하면, 모폴로지연산에 의한 클러스터링은 마스크를 통해 중앙에 위치한 화소와 주변화소의 대응관계를 살펴보고, 주변화소의 특징에 따라 중앙에 위치한 화소를 변환하는 것을 의미한다. 도 6은 일 실시예에 의한 모폴로지연산을 도시한 것이며, 모폴로지연산의 종류로는 중앙에 위치한 화소를 기준으로 주변화소를 채워주는 팽창(Dilation) 연산, 팽창 연산과 반대 기능을 하는 침식(erosion) 연산, 열림(opening)연산, 닫힘(closing)연산 등 다양하다.
본 발명의 일 실시 예에 의하면, 클러스터링부(1243)에 의하여 잘못 변환된 정지화소 및 움직임화소를 올바른 것으로 정정할 수 있는 효과가 있다.
본 발명의 일 실시 예에 의하면, 영상의 움직임화소 및 정지화소를 도출할 때, 먼저 영상을 화소들을 움직임화소, 미정의화소 및 정지화소의 3가지로 분류한 후, 주변화소들로부터 결정된 임계값을 통해 미정의화소를 움직임화소 및 정지화소로 변환함으로써 보다 정확한 움직임 영역을 정의할 수 있다. 또한 클러스터링을 통해 오류를 제거함으로써 정확도를 더욱 높일 수 있다.
도 7 및 도 8은 본 발명의 일 실시 예에 의한 영상 처리 방법을 나타낸 설명도이다.
먼저, 도 7을 참조하면, 디지털 카메라(100)의 자동단계노출(Auto Exposure Bracketing; AEB) 기능을 이용하여 노출 시간을 달리하여 촬영한 적어도 하나 이상의 로우 다이나믹 레인지 영상들을 획득한다. 설명의 편의를 위하여, 로우 다이나믹 레인지 영상들은 노출시간을 짧게 하여 부족노출로 촬영된 제1영상(LDR1), 노출시간을 적정하게 하여 적정노출로 촬영된 제2영상(LDR2) 및 노출시간을 길게 하여 과노출로 촬영된 제3영상(LDR3)의 3장으로 한다. 본 발명에 의한 실시예는 제1 내지 3영상(LDR1, LDR2 and LDR3)으로부터 상겹침 현상 및 잡음이 효과적으로 제거된 레디언스맵(RM)을 얻는 것을 목적으로 한다.
다음으로, S701에 의하면 제2영상(LDR2)을 기준으로 제1영상(LDR1) 및 제3영상(LDR3) 각각의 글로벌 모션(global motion)을 보상한다. 글로벌 모션 보상을 통하여 전체 픽셀의 쉬프트가 보상되어 손떨림 또는 디지털 카메라(100)의 위치가 바뀌어 발생할 수 있는 상겹침 현상 및 잡음이 제거될 수 있다. 이 과정은 선택에 따라 생략될 수 도 있다.
다음으로, S702에 의하면, 선택에 따라 글로벌 모션이 보상된 제1영상(LDR1), 제2영상(LDR2) 및 제3영상(LDR3)을 입력받아 포화영역, 저포화영역 및 비포화영역으로 나누어 표시한 제1`영상(LDR1`), 제2`영상(LDR2`) 및 제3`영상(LDR3`)을 출력할 수 있다. 이 단계는 다음 단계에서 포화영역 및 저포화영역을 제외한 나머지 비포화영역만을 사용하여 특징맵을 생성하기 위한 것이다. 왜냐하면, 포화영역은 영상이 저장 또는 표현할 수 있는 최대 인텐시티값(255)을 갖는 영역이다. 또한 저포화영역은 영상이 저장 또는 표현할 수 있는 최소 인텐시티값(0)을 갖는 영역이다. 이러한 포화영역 및 저포화영역에서는 잘못된 검출 (false detection)이 주로 나타나므로, 이를 제외하여야만 잘못된 검출에 의한 상겹침 현상을 제거할 수 있기 때문이다.
다음으로, S703에 의하면, 제1`영상(LDR1`), 제2`영상(LDR2`) 및 제3`영상(LDR3`)을 입력받아, 제2`영상(LDR2`)을 기준영상으로 하여 제2`영상(LDR2`)과 제1`영상(LDR1`)의 비포화영역을 비교하여 두 영상의 비포화영역의 패턴이 얼마나 유사한지 나타내는 제1특징맵(FM1)을 생성한다. 같은 방식으로, 제2`영상(LDR2`)을 기준영상으로 하여 제2`영상(LDR2`)과 제3`영상(LDR3`)의 비포화영역을 비교하여 두 영상의 비포화영역의 패턴이 얼마나 유사한지 나타내는 제2특징맵(FM2)을 생성한다. 여기서 특정 영역의 패턴이 얼마나 유사한지는 ZNCC를 사용하여 비교하며, 패턴의 유사도가 낮을 때는 밝기값 0 인 검정색에 대응하며, 패턴이 완전이 동일할 때는 밝기값 255인 흰색에 대응하게 표시할 수 있다. 따라서 밝기값은 제2`영상(LDR2`)과 제1`영상(LDR1`) 또는 제3`영상(LDR3`)의 패턴의 유사도 정도로 해석될 수 있다. 이 단계에서는 움직임영역 및 정지영역을 구별하기 위하여 일종의 마스크로 사용되는 최종특징맵을 구하기 위한 사전단계이다. 본 발명에서는 ZNCC 를 사용하여 패턴의 유사도를 비교하였으나, 이에 한정되지 않고 에지분석, 인텐시티 도함수(intensity derivation) 분석, 유사도 비교를 위한 필터 등을 사용하여 패턴의 유사도를 비교할 수도 있다.
다음으로, S704에 의하면, 제1특징맵(FM1) 및 제2특징맵(FM2)에 포함된 화소들을 움직임화소, 미정의화소 및 정지화소로 정의하여 3가지 밝기값으로 표시한 제1`특징맵(FM1`)과 제2`특징맵(FM2`)을 도출한다. 여기서 움직임화소, 미정의화소 및 정지화소로 정의하는 기준은 밝기값의 일종인 특징값에 의할 수 있다. 밝기값은 패턴의 유사도 정도로 해석되며, 패턴이 완전히 동일하다는 것은 정지화소를 의미하고, 패턴의 유사도가 낮다는 것은 움직임화소를 의미할 수 있다. 이 단계에서는 움직임의 정도에 따라 화소들을 3단계로 분류하는 것이다. 이 단계에 의하여 움직임 정도에 따라 화소들을 2단계로 바로 분리하는 것보다 정밀도를 높일 수 있는 특징이 있다.
다음으로, S705에 의하면, 제1`특징맵(FM1`)과 제2`특징맵(FM2`)에 포함된 미정의화소를 주변화소들의 밝기값의 평균을 임계값으로 하여 움직임화소 또는 정지화소로 변환하여 2가지 밝기값으로만 표시한 제1``특징맵(FM1``)과 제2``특징맵(FM2``)을 도출한다. 이 단계에서는 영상에 포함된 움직임화소와 정지화소가 구별되는 단계이다. 본 발명의 실시예에 의하면, 주변화소들의 밝기값의 평균을 임계값으로 하여 미정의화소를 변환함으로써 보다 정확하게 미정의화소를 제거하는 특징이 있다.
다음으로, S706에 의하면, 제1``특징맵(FM1``)과 제2``특징맵(FM2``)에 포함된 움직임화소 및 정지화소를 모폴로지 연산에 의해 클러스터링(clusturing)하여 제1최종특징맵(FFM1) 및 제2최종특징맵(FFM2)을 도출한다. 이 단계는 변환과정 중 발생했을 에러를 제거함으로써 보다 정교한 최종특징맵들을 도출할 수 있게 한다.
상술한 과정은 로우 다이나믹 레인지 영상들로부터 최종특징맵들을 도출하는 과정이다. 이후에서는 최종특징맵을 사용하여 로우 다이나믹 레인지 영상의 잡음을 제거하고 레디언스 맵을 생성하는 과정을 알아본다.
먼저, 도 8을 참조하면, S707a 및 S707b 에 의하면, 제1영상(LDR1)과 제1최종특징맵(FFM1)을 비교하여, 제1영상(LDR1)의 움직임영역 및 정지영역을 정의하고, 제3영상(LDR3)과 제2최종특징맵(FFM2)을 비교하여 제3영상(LDR3)의 움직임영역 및 정지영역을 정의한다. 즉, 최종특징맵들을 마스크로 사용하여 부족노출 및 과노출된 로우 다이나믹 레인지 영상들의 움직임영역 및 정지영역을 정의하는 것이다. 여기서 제1영상(LDR1)과 제3영상(LDR3)은 글로벌 모션 보상을 수행한 영상일 수 있으며, 최초 촬영한 영상 일 수도 있다. 이 단계는 영상의 잡음제거를 수행할 때, 움직임영역 및 정지영역에 서로 다른 필터를 사용하기 위하여 영상의 움직임영역 및 정지영역을 정의하는 것이다.
다음으로, S708a 및 S708b 에 의하면, 정의된 움직임영역에 제1잡음제거필터를 사용하고, 정의된 정지영역에 제2잡음제거필터를 사용하여 잡음을 제거한다. 여기서 제1잡음제거필터는 시공간잡음제거필터(spatio-temporal noise reduction filter)이며, 제2잡음제거필터는 공간적잡음제거필터(temporal noise reduction filter)이다. 이 단계에 의하면, 움직임영역과 정지영역을 구별하여 서로 다른 잡음제거 필터를 사용함으로써, 잡음 제거의 효율이 상승되며, 수행시간이 단축되는 특징이 있다.
한편, S709에 의하면, 제2영상(LDR2)의 경우, 움직임영역과 정지영역을 정의하지 않고, 일반적인 잡음제거 필터(noise reduction filter)를 사용하여 잡음을 제거할 수 있다.
다음으로, S710에 의하면, 잡음이 제거된 로우 다이나믹 레인지 영상들에 대응되는 레디언스맵(RM)을 생성한다. 레디언스맵(RM)은 데베벡 앤드 마릭(Debevec and Malik)의 방법으로 얻을 수 있으며, 이 때, 움직임영역의 가중치를 정지영역의 가중치보다 낮게 하여 레디언스맵(RM)을 생성하는 것을 특징으로 한다. 이 단계는 움직임영역의 가중치를 낮춰 레디언스맵(RM)을 생성함으로써, 움직임영역에 의해 나타날 수 있는 상겹침 현상이 제거되는 특징이 있다.
상술한 과정은 로우 다이나믹 레인지 영상들과 최종특징맵들을 사용하여 잡음이 제거된 레디언스맵(RM)을 도출하는 과정이다. 특히, 로우 다이나믹 레인지 영상들을 촬영하는 촬영조건이 실내환경이나 어두운 곳인 저조도 또는 고감도 조건인 경우 본 발명에 의한 방법으로 움직임영역 및 정지영역에 서로 다른 잡음 제거 필터를 사용하여야만 잡음을 효율적으로 제거할 수 있다.
본 발명에 의해 영상 처리된 레디언스맵을 톤매핑을 통해 얻은 디스플레이 영상은 본 발명에 의해 영상처리 되지 않은 대조영상과 다음과 같은 방법으로 구별할 수 있다.
본 발명에 의한 영상 처리 방법은 적정노출로 촬영된 로우 다이나믹 레인지 영상을 기준으로, 포화영역 이외의 영역을 통해 특징맵을 도출하는 특징이 있다. 따라서, 대조영상이 대조영상을 얻기 위한 적정노출의 로우 다이나믹 레인지 영상과 움직임영역 또는 정지영역이 동일하거나, 특히 포화영역에서 상겹침이 발생하지 않은 경우 본 발명에 의한 영상 처리 방법을 사용했을 가능성이 높다.
특히 종래의 잡음제거기술로는 촬영조건이 30Lux 이하의 저조도에서는 잡음의 제거가 어려우므로, 저조도에서 디지털카메라의 자동단계노출(AEB) 기능을 이용하여 얻은 영상을 합성하여 최종적으로 디스플레이 영상을 얻었으나, 잡음이 제거되고, 다이나믹 레인지가 향상되었으면 본 발명에 의한 영상 처리 방법을 사용했을 가능성이 높다.
한편, 본 발명은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
이제까지 본 발명에 대하여 바람직한 실시 예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. 그러므로 상기 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 한다.
120: 영상 신호 처리부
LDR1, LDR2, LDR3 : 제1영상, 제2영상, 제3영상
LDR1`, LDR2`, LDR3` : 제1`영상, 제2`영상, 제3`영상
FM1, FM2, FM3: 제1특징맵, 제2특징맵, 제3특징맵
FM1`, FM2`, FM3`: 제1`특징맵, 제2`특징맵, 제3`특징맵
FM1``, FM2``, FM3``: 제1``특징맵, 제2``특징맵, 제3``특징맵
FFM1, FFM2, FFM3: 제1최종특징맵, 제2최종특징맵, 제3최종특징맵
RM: 레디언스맵

Claims (22)

  1. 노출 정도가 다른 적어도 하나 이상의 로우 다이나믹 레인지 영상들을 제공하는 로우다이나믹레인지영상제공부;
    제공된 상기 로우 다이나믹 레인지 영상들 각각을 인텐시티값을 기준으로, 포화영역, 저포화영역 및 비포화영역으로 구별하여 표시하는 포화영역검출부;
    상기 포화영역, 저포화영역 및 비포화영역으로 표시된 로우 다이나믹 레인지 영상들 중 상기 포화영역 및 저포화영역을 제외한 비포화영역의 패턴을 비교하여 상기 비포화영역의 패턴이 얼마나 유사한지 나타내는 특징맵들을 생성하는 특징맵생성부;
    상기 특징맵들에 포함된 화소들을 움직임화소 및 정지화소로 변환하여 표시함으로써 최종특징맵들을 도출하는 최종특징맵도출부;
    상기 최종특징맵들과 상기 로우 다이나믹 레인지 영상들을 비교하여 상기 로우 다이나믹 레인지 영상들에 포함된 움직임영역 및 정지영역을 정의하는 움직임영역정의부;
    정의된 상기 움직임영역에 제1잡음제거필터를 사용하고, 정의된 상기 정지영역에 제2잡음제거필터를 사용하여 잡음을 제거하는 잡음제거부; 및
    잡음이 제거된 상기 움직임영역의 가중치를 잡음이 제거된 상기 정지영역의 가중치보다 낮게 하여 상기 로우 다이나믹 레인지 영상들에 대응되는 레디언스맵을 생성하는 레디언스맵생성부;
    를 포함하는 영상 처리 장치.
  2. 제1항에 있어서
    상기 노출 정도가 다른 적어도 하나 이상의 로우 다이나믹 레인지 영상들 각각의 글로벌 모션을 보상하는 글로벌모션보상부;
    를 더 포함하는 영상 처리 장치.
  3. 제1항에 있어서
    상기 최종특징맵도출부는
    상기 특징맵들에 포함된 화소들을 특징값들을 기준으로, 움직임화소, 미정의화소 및 정지화소로 정의하여 표시하는 3진변환부;
    상기 3진변환부로부터 도출된 상기 특징맵들에 포함된 상기 미정의화소를 주변화소들의 밝기값의 평균을 임계값으로 하여 상기 움직임화소 또는 정지화소로 변환하여 표시하는 2진변환부; 및
    상기 2진변환부로부터 도출된 상기 특징맵들에 포함된 상기 움직임화소 및 정지화소를 클러스터링하여 최종특징맵들을 도출하는 클러스터링부;
    를 포함하는 영상 처리 장치.
  4. 제3항에 있어서
    상기 로우다이나믹레인지영상제공부는 상기 로우 다이나믹 레인지 영상들로서, 부족노출된 제1영상, 적정노출된 제2영상 및 과노출된 제3영상을 제공하는 영상 처리 장치.
  5. 제4항에 있어서
    상기 포화영역검출부는
    상기 제1영상, 제2영상 및 제3영상 각각을 상기 포화영역, 저포화영역 및 비포화영역으로 구별하여 표시하며,
    상기 특징맵생성부는,
    상기 포화영역이 표시된 제2영상을 기준영상으로 하여, 상기 기준영상과 상기 포화영역이 표시된 제1영상의 상기 비포화영역을 비교하여 상기 비포화영역의 패턴이 얼마나 유사한지 제로-민 노말라이즈드 크로스 코릴레이션(ZNCC)을 사용하여 밝기값으로 나타내는 제1특징맵을 생성하고,
    상기 기준영상과 상기 포화영역이 표시된 제3영상의 상기 비포화영역을 비교하여 상기 비포화영역의 패턴이 얼마나 유사한지 제로-민 노말라이즈드 크로스 코릴레이션(ZNCC)을 사용하여 밝기값으로 나타내는 제2특징맵을 생성하는 영상 처리 장치.
  6. 제5항에 있어서
    상기 3진변환부는,
    상기 특징값이 제1특징값 및 제1특징값보다 밝기가 큰 제2특징값을 포함하며,
    상기 제1특징맵 및 상기 제2특징맵에 포함된 화소의 밝기값이 상기 제1특징값보다 작은 경우, 상기 화소를 상기 움직임화소로 정의하여 표시하고,
    상기 제1특징맵 및 상기 제2특징맵에 포함된 화소의 밝기값이 상기 제1특징값보다 크고 제2특징값보다 작은 경우, 상기 화소를 상기 미정의화소로 정의하여 표시하고,
    상기 제1특징맵 및 상기 제2특징맵에 포함된 화소의 밝기값이 상기 제2특징값보다 큰 경우, 상기 화소를 상기 정지화소로 정의하여 표시하는 영상 처리 장치.
  7. 제6항에 있어서
    상기 2진변환부는
    상기 미정의화소의 밝기값이 상기 임계값보다 작은 경우, 상기 미정의화소는 상기 움직임화소로 변환하여 표시하고,
    상기 미정의화소의 밝기값이 상기 임계값보다 큰 경우, 상기 미정의화소는 상기 정지화소로 변환하여 표시하는 영상 처리 장치.
  8. 제7항에 있어서
    상기 클러스터링부는
    상기 움직임화소 및 정지화소에 모폴로지연산을 적용함으로써 클러스터링하는 영상 처리 장치.
  9. 제8항에 있어서
    상기 움직임영역정의부는
    상기 최종특징맵들이 상기 제1특징맵에 대응하는 제1최종특징맵과 상기 제2특징맵에 대응하는 제2최종특징맵을 포함하며,
    상기 제1최종특징맵과 상기 제1영상을 비교하여 상기 움직임화소에 대응하는 상기 움직임영역을 정의 및 상기 정지화소에 대응하는 상기 정지영역을 정의하고
    상기 제2최종특징맵과 상기 제3영상을 비교하여 상기 움직임화소에 대응하는 상기 움직임영역을 정의 및 상기 정지화소에 대응하는 상기 정지영역을 정의하는 영상 처리 장치.
  10. 제1항에 있어서
    상기 제1잡음제거필터는 상기 움직임영역의 3차원 스트럭처텐서를 사용하여 설계된 시공간잡음제거필터이며, 상기 제2잡음제거필터는 상기 정지영역의 2차원 스트럭처텐서를 사용하여 설계된 공간적잡음제거필터인 영상 처리 장치.
  11. 제9항에 있어서,
    상기 레디언스맵생성부는
    잡음이 제거된 상기 움직임영역의 가중치를, 잡음이 제거된 상기 정지영역의 가중치보다 낮게 하여, 상기 제1영상, 제2영상 및 제3영상에 대응되는 상기 레디언스맵을 드베벡 앤드 마릭의 방법으로 생성하는 영상 처리 장치.
  12. 노출 정도가 다른 적어도 하나 이상의 로우 다이나믹 레인지 영상들을 제공하는 단계;
    제공된 상기 로우 다이나믹 레인지 영상들 각각을 인텐시티값을 기준으로, 포화영역, 저포화영역 및 비포화영역으로 구별하여 표시하는 단계;
    상기 포화영역, 저포화영역 및 비포화영역으로 표시된 상기 로우 다이나믹 레인지 영상들 중 상기 포화영역 및 저포화영역을 제외한 비포화영역의 패턴을 비교하여 상기 비포화영역의 패턴이 얼마나 유사한지 나타내는 특징맵들을 생성하는 단계;
    상기 특징맵들에 포함된 화소들을 특징값들을 기준으로, 움직임화소, 미정의화소 및 정지화소로 정의하여 표시하는 단계;
    상기 특징맵들에 포함된 상기 미정의화소는 주변화소들의 밝기값의 평균을 임계값으로 하여 상기 움직임화소 또는 정지화소로 변환하여 표시하는 단계;
    상기 미정의화소가 변환된 상기 특징맵들에 포함된 상기 움직임화소 및 정지화소를 클러스터링하여 최종특징맵들을 도출하는 단계;
    상기 최종특징맵들과 상기 로우 다이나믹 레인지 영상들을 비교하여 상기 로우 다이나믹 레인지 영상들에 포함된 움직임영역 및 정지영역을 정의하는 단계;
    정의된 상기 움직임영역에 제1잡음제거필터를 사용하고, 정의된 상기 정지영역에 제2잡음제거필터를 사용하여 잡음을 제거하는 단계; 및
    잡음이 제거된 상기 움직임영역의 가중치를 잡음이 제거된 상기 정지영역의 가중치보다 낮게 하여 상기 로우 다이나믹 레인지 영상들에 대응되는 레디언스맵을 생성하는 단계;
    를 포함하는 영상 처리 방법.
  13. 제12항에 있어서
    상기 노출 정도가 다른 적어도 하나 이상의 로우 다이나믹 레인지 영상들 각각의 글로벌 모션을 보상하는 단계;
    를 더 포함하는 영상 처리 방법.
  14. 제12항에 있어서
    상기 로우 다이나믹 레인지 영상들은 부족노출된 제1영상, 적정노출된 제2영상, 과노출된 제3영상을 포함하는 영상 처리 방법.
  15. 제14항에 있어서
    상기 제1영상, 제2영상 및 제3영상 각각을 상기 포화영역, 저포화영역 및 비포화영역으로 구별하여 표시하며,
    상기 특징맵을 생성하는 단계는,
    상기 포화영역이 표시된 제2영상을 기준영상으로 하여, 상기 기준영상과 상기 포화영역이 표시된 제1영상의 상기 비포화영역을 비교하여 상기 비포화영역의 패턴이 얼마나 유사한지 제로-민 노말라이즈드 크로스 코릴레이션(ZNCC)을 사용하여 밝기값으로 나타내는 제1특징맵을 생성하고,
    상기 기준영상과 상기 포화영역이 표시된 제3영상의 상기 비포화영역을 비교하여 상기 비포화영역의 패턴이 얼마나 유사한지 제로-민 노말라이즈드 크로스 코릴레이션(ZNCC)을 사용하여 밝기값으로 나타내는 제2특징맵을 생성하는 영상 처리 방법.
  16. 제15항에 있어서
    상기 움직임화소, 미정의화소 및 정지화소로 정의하여 표시하는 단계는,
    상기 특징값이 제1특징값 및 제1특징값보다 밝기가 큰 제2특징값을 포함하며,
    상기 제1특징맵 및 상기 제2특징맵에 포함된 화소의 밝기값이 상기 제1특징값보다 작은 경우, 상기 화소를 상기 움직임화소로 정의하여 표시하고,
    상기 제1특징맵 및 상기 제2특징맵에 포함된 화소의 밝기값이 상기 제1특징값보다 크고 제2특징값보다 작은 경우, 상기 화소를 상기 미정의화소로 정의하여 표시하고,
    상기 제1특징맵 및 상기 제2특징맵에 포함된 화소의 밝기값이 상기 제2특징값보다 큰 경우, 상기 화소를 상기 정지화소로 정의하여 표시하는 영상 처리 방법.
  17. 제16항에 있어서
    상기 미정의화소를 변환하는 단계는
    상기 미정의화소의 밝기값이 상기 임계값보다 작은 경우, 상기 미정의화소는 상기 움직임화소로 변환하여 표시하고,
    상기 미정의화소의 밝기값이 상기 임계값보다 큰 경우, 상기 미정의화소는 상기 정지화소로 변환하여 표시하는 영상 처리 방법.
  18. 제17항에 있어서
    상기 클러스터링하는 단계는
    상기 움직임화소 및 정지화소에 모폴로지연산을 적용함으로써 클러스터링하는 영상 처리 방법.
  19. 제18항에 있어서
    상기 움직임영역 및 정지영역을 정의하는 단계는
    상기 최종특징맵들이 상기 제1특징맵에 대응하는 제1최종특징맵과 상기 제2특징맵에 대응하는 제2최종특징맵을 포함하며,
    상기 제1최종특징맵과 상기 제1영상을 비교하여 상기 움직임화소에 대응하는 상기 움직임영역을 정의 및 상기 정지화소에 대응하는 상기 정지영역을 정의하고
    상기 제2최종특징맵과 상기 제3영상을 비교하여 상기 움직임화소에 대응하는 상기 움직임영역을 정의 및 상기 정지화소에 대응하는 상기 정지영역을 정의하는 영상 처리 방법.
  20. 제12항에 있어서
    상기 제1잡음제거필터는 상기 움직임영역의 3차원 스트럭처텐서를 사용하여 설계된 시공간잡음제거필터이며, 상기 제2잡음제거필터는 상기 정지영역의 2차원 스트럭처텐서를 사용하여 설계된 공간적잡음제거필터인 영상 처리 방법.
  21. 제19항에 있어서,
    상기 레디언스맵을 생성하는 단계는
    잡음이 제거된 상기 움직임영역의 가중치를, 잡음이 제거된 상기 정지영역의 가중치보다 낮게 하여, 상기 제1영상, 제2영상 및 제3영상에 대응되는 상기 레디언스맵을 드베벡 앤드 마릭의 방법으로 생성하는 영상 처리 방법.
  22. 제12항에 있어서,
    상기 로우 다이나믹 레인지 영상들은 잡음이 발생하는 촬영조건에서 촬영된 영상인 영상 처리 방법.
KR1020100078856A 2010-08-16 2010-08-16 영상 처리 방법 및 영상 처리 장치 KR101661215B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020100078856A KR101661215B1 (ko) 2010-08-16 2010-08-16 영상 처리 방법 및 영상 처리 장치
US13/034,764 US8854489B2 (en) 2010-08-16 2011-02-25 Image processing method and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100078856A KR101661215B1 (ko) 2010-08-16 2010-08-16 영상 처리 방법 및 영상 처리 장치

Publications (2)

Publication Number Publication Date
KR20120016476A KR20120016476A (ko) 2012-02-24
KR101661215B1 true KR101661215B1 (ko) 2016-09-30

Family

ID=45564576

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100078856A KR101661215B1 (ko) 2010-08-16 2010-08-16 영상 처리 방법 및 영상 처리 장치

Country Status (2)

Country Link
US (1) US8854489B2 (ko)
KR (1) KR101661215B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210125318A1 (en) * 2019-10-29 2021-04-29 Visidon Oy Image processing method and apparatus

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8265378B2 (en) * 2004-04-15 2012-09-11 Dolby Laboratories Licensing Corporation Methods and systems for converting images from low dynamic to high dynamic range
US20130044237A1 (en) * 2011-08-15 2013-02-21 Broadcom Corporation High Dynamic Range Video
US9235875B2 (en) * 2012-11-01 2016-01-12 Google Inc. Image enhancement using learned non-photorealistic effects
US9807099B2 (en) 2013-03-15 2017-10-31 Google Inc. Utility portals for managing demand-response events
CN104349066B (zh) * 2013-07-31 2018-03-06 华为终端(东莞)有限公司 一种生成高动态范围图像的方法、装置
KR102171387B1 (ko) * 2014-03-06 2020-10-28 삼성전자주식회사 포화 픽셀 데이터의 보정 방법 및 이를 이용한 이미지 데이터의 프로세싱 방법
US20170018062A1 (en) * 2014-03-31 2017-01-19 Agency For Science, Technology And Research Image processing devices and image processing methods
KR102273656B1 (ko) 2014-11-24 2021-07-05 삼성전자주식회사 광역 역광 보정 영상의 노이즈 레벨 제어 장치, 및 이를 포함하는 영상 처리 시스템
US10122936B2 (en) * 2015-09-02 2018-11-06 Mediatek Inc. Dynamic noise reduction for high dynamic range in digital imaging
US9762893B2 (en) * 2015-12-07 2017-09-12 Google Inc. Systems and methods for multiscopic noise reduction and high-dynamic range
JP2017139691A (ja) * 2016-02-05 2017-08-10 ソニー株式会社 画像処理装置および画像処理方法
KR101904493B1 (ko) * 2016-11-22 2018-10-17 동서대학교산학협력단 저선량 촬영한 동적 3차원 의료영상을 시공간 특징 기반으로 개선하는 방법
US10467733B2 (en) * 2017-07-27 2019-11-05 Raytheon Company Multiplexed high dynamic range images
EP3493150A1 (en) * 2017-11-30 2019-06-05 InterDigital VC Holdings, Inc. Tone mapping adaptation for saturation control
US10607047B2 (en) 2017-12-06 2020-03-31 Cognex Corporation Local tone mapping for symbol reading
CN108564552A (zh) * 2018-04-28 2018-09-21 深圳市商汤科技有限公司 图像去模糊的方法及装置
US10846321B2 (en) 2018-05-31 2020-11-24 Robert Bosch Gmbh System and method for large scale multidimensional spatio-temporal data analysis
US11165966B2 (en) 2018-09-19 2021-11-02 Canon Kabushiki Kaisha Image capturing apparatus, method of controlling image capturing apparatus, and storage medium
WO2020081330A1 (en) * 2018-10-15 2020-04-23 Bio-Rad Laboratories, Inc. Saturation avoidance in digital imaging
KR20210053377A (ko) 2019-11-01 2021-05-12 삼성전자주식회사 이미지 센서 및 이미지 신호 처리기를 포함하는 이미지 장치, 및 이미지 센서의 동작 방법
KR102287407B1 (ko) * 2020-12-18 2021-08-06 영남대학교 산학협력단 이미지 생성을 위한 학습 장치 및 방법과 이미지 생성 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007194687A (ja) 2006-01-17 2007-08-02 Seiko Epson Corp 撮像装置
JP2008306326A (ja) 2007-06-06 2008-12-18 Sony Corp 画像処理装置および画像処理方法
JP2010103700A (ja) 2008-10-22 2010-05-06 Ricoh Co Ltd 撮像装置および撮像方法
JP2011525058A (ja) 2008-06-19 2011-09-08 パナソニック株式会社 撮像システムにおける移動ぶれ及びゴースト防止のための方法及び装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6879731B2 (en) * 2003-04-29 2005-04-12 Microsoft Corporation System and process for generating high dynamic range video

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007194687A (ja) 2006-01-17 2007-08-02 Seiko Epson Corp 撮像装置
JP2008306326A (ja) 2007-06-06 2008-12-18 Sony Corp 画像処理装置および画像処理方法
JP2011525058A (ja) 2008-06-19 2011-09-08 パナソニック株式会社 撮像システムにおける移動ぶれ及びゴースト防止のための方法及び装置
JP2010103700A (ja) 2008-10-22 2010-05-06 Ricoh Co Ltd 撮像装置および撮像方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210125318A1 (en) * 2019-10-29 2021-04-29 Visidon Oy Image processing method and apparatus
US11640654B2 (en) * 2019-10-29 2023-05-02 Visidon Oy Image processing method and apparatus

Also Published As

Publication number Publication date
US20120038797A1 (en) 2012-02-16
US8854489B2 (en) 2014-10-07
KR20120016476A (ko) 2012-02-24

Similar Documents

Publication Publication Date Title
KR101661215B1 (ko) 영상 처리 방법 및 영상 처리 장치
CN110072051B (zh) 基于多帧图像的图像处理方法和装置
CN110062160B (zh) 图像处理方法和装置
CN109068067B (zh) 曝光控制方法、装置和电子设备
CN109040609B (zh) 曝光控制方法、装置、电子设备和计算机可读存储介质
JP6911202B2 (ja) 撮像制御方法および撮像装置
CN109788207B (zh) 图像合成方法、装置、电子设备及可读存储介质
CN108322669B (zh) 图像获取方法及装置、成像装置和可读存储介质
WO2020207262A1 (zh) 基于多帧图像的图像处理方法、装置、电子设备
CN110290289B (zh) 图像降噪方法、装置、电子设备以及存储介质
CN110166708B (zh) 夜景图像处理方法、装置、电子设备以及存储介质
EP3836534A1 (en) Imaging control method, apparatus, electronic device, and computer-readable storage medium
CN110191291B (zh) 基于多帧图像的图像处理方法和装置
CN110248106B (zh) 图像降噪方法、装置、电子设备以及存储介质
US9357127B2 (en) System for auto-HDR capture decision making
WO2020207261A1 (zh) 基于多帧图像的图像处理方法、装置、电子设备
CN110166707B (zh) 图像处理方法、装置、电子设备以及存储介质
CN111028190A (zh) 图像处理方法、装置、存储介质及电子设备
KR20130031574A (ko) 영상 처리 방법 및 영상 처리 장치
CN110166709B (zh) 夜景图像处理方法、装置、电子设备以及存储介质
CN110264420B (zh) 基于多帧图像的图像处理方法和装置
CN110166706B (zh) 图像处理方法、装置、电子设备以及存储介质
JP2013106149A (ja) 撮像装置、その制御方法、及びプログラム
CN108156369B (zh) 图像处理方法和装置
WO2020034701A1 (zh) 成像控制方法、装置、电子设备以及可读存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190829

Year of fee payment: 4