KR102621472B1 - 영상 처리 장치 및 방법 - Google Patents

영상 처리 장치 및 방법 Download PDF

Info

Publication number
KR102621472B1
KR102621472B1 KR1020180060883A KR20180060883A KR102621472B1 KR 102621472 B1 KR102621472 B1 KR 102621472B1 KR 1020180060883 A KR1020180060883 A KR 1020180060883A KR 20180060883 A KR20180060883 A KR 20180060883A KR 102621472 B1 KR102621472 B1 KR 102621472B1
Authority
KR
South Korea
Prior art keywords
image
image frame
frame
exposure time
area
Prior art date
Application number
KR1020180060883A
Other languages
English (en)
Other versions
KR20190126232A (ko
Inventor
이창민
Original Assignee
한화비전 주식회사
비전넥스트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화비전 주식회사, 비전넥스트 주식회사 filed Critical 한화비전 주식회사
Publication of KR20190126232A publication Critical patent/KR20190126232A/ko
Application granted granted Critical
Publication of KR102621472B1 publication Critical patent/KR102621472B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
    • H04N25/589Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields with different integration times, e.g. short and long exposures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

상기 목적을 달성하기 위하여 본 발명의 실시예에 의한 영상 처리 장치는, 제1 노출시간을 갖는 제1 영상 프레임과, 상기 제1 노출시간과 상이한 하나의 제2 노출시간을 갖는 적어도 2개의 제2 영상 프레임을 출력하는 이미지 센서; 상기 이미지 센서에서 출력되는 이미지 프레임 내의 포화 픽셀들의 개수에 기초하여 상기 제 2 노출 시간을 결정하는 모드 결정부; 상기 모드 결정부의 출력 신호에 기초하여 상기 이미지 센서의 각 프레임들의 노출시간을 제어하는 셔터 제어부; 및 상기 제1 영상 프레임과 상기 적어도 2개의 제2 영상 프레임을 융합하여 광역 보정 영상 신호를 출력하는 영상 처리부를 포함한다.

Description

영상 처리 장치 및 방법{APPARATUS AND METHOD FOR PROCESSING IMAGES}
본 발명의 실시예는 영상 처리 장치 및 방법에 관한 것으로, 보다 구체적으로는, 광역 보정(WDR) 영상의 모션 아티팩트(artifact)를 제거할 수 있는 영상 처리 장치 및 방법에 관한 것이다.
최근 디지털 카메라, 디지털 캠코더, 카메라 폰 등을 포함하는 디지털 영상 처리 장치에 대한 사용자 수요가 급격하게 증대되고 있으며, 이에 따라 디지털 영상 처리 장치의 기능들이 갈수록 다양화되고 지능화되고 있다.
그러나, 이러한 디지털 영상 처리 장치들은 영상 센서 등을 통해 획득할 수 있는 동적 영역이 실제 장면의 동적 영역에 비해 상대적으로 매우 작기 때문에, 실제 장면에 대한 모든 정보를 처리하기에 부족하며, 특히, 역광 등에 의해 영상의 명부와 암부 사이의 조도 차이가 큰 상태에서 영상을 획득하는 경우에는 영상의 명부 및 암부 모두에 대하여 충분한 정보 획득이 불가능하며, 이로 인해 해당 영역의 화질이 심각하게 열화될 수 있다. 이를 극복하기 위한 기술로, 광역 보정(Wide Dynamic Range: WDR) 영상 처리 기술이 등장하였다.
WDR 영상 처리 기술은 영상의 명부가 선명하게 보이도록 노출 시간을 짧게 조절한 단노광 영상 프레임과 암부가 선명하게 보이도록 노출 시간을 길게 조절한 장노광 영상 프레임을 서로 융합하여 명부 및 암부 모두가 선명하게 보일 수 있는 영상 프레임을 생성하는 기술이다.
상기 융합된 WDR 신호를 얻는 방법으로는 노출 시간을 바꾸면서 여러 프레임의 영상을 연속적으로 촬영하여 합성하는 방법이 있다. 즉, 서로 다른 노출 시간을 갖는 복수개의 단노광 영상 프레임들과 상기 장노광 영상 프레임을 서로 융합하여 동적 영역을 최대화할 수 있다.
그러나, 이러한 WDR 처리된 영상은 실제 영상 내에 움직이는 물체가 등장하는 경우에는 해당 물체로 인하여 모션 아티펙트가 발생하게 된다.
따라서, 촬영되는 실제 장면의 상태에 따라 동적 영역을 최대화한 제1 융합 영상 신호를 얻어야 할지 또는 모션 아티팩트를 보정한 제2 융합 영상 신호를 얻어야 할지 결정하는 것이 필요하다.
본 발명의 실시예는 촬영시 외부 환경에 따라 촬영되는 영상에 대해 동적 영역을 최대화한 제1 융합 영상 신호를 얻을지 또는 상기 모션 아티팩트를 보정한 제2 융합 영상 신호를 얻을지 미리 결정함을 통해 WDR 처리된 영상의 품질을 향상시킬 수 있는 영상 처리 장치 및 방법을 제공한다.
또한, 본 발명의 실시예는 모션 아티팩트를 보정할 경우 노광 시간이 동일한 적어도 2개의 단노광 영상 프레임들을 장노광 영상 프레임과 비교하고, 움직임 검출이 최소인 프레임을 선택하여 모션 아티팩트를 보정하는 영상 처리 장치 및 방법을 제공한다.
상기 목적을 달성하기 위하여 본 발명의 실시예에 의한 영상 처리 장치는, 제1 노출시간을 갖는 제1 영상 프레임과, 상기 제1 노출시간과 상이한 하나의 제2 노출시간을 갖는 적어도 2개의 제2 영상 프레임을 출력하는 이미지 센서; 상기 이미지 센서에서 출력되는 이미지 프레임 내의 포화 픽셀들의 개수에 기초하여 상기 제 2 노출 시간을 결정하는 모드 결정부; 상기 모드 결정부의 출력 신호에 기초하여 상기 이미지 센서의 각 프레임들의 노출시간을 제어하는 셔터 제어부; 및 상기 제1 영상 프레임과 상기 적어도 2개의 제2 영상 프레임을 융합하여 광역 보정 영상 신호를 출력하는 영상 처리부를 포함한다.
상기 영상 처리부는, 상기 제1 영상 프레임과 상기 적어도 2개의 제2 영상 프레임들 각각에서 상기 영상 프레임의 소정 영역을 비교하여 상기 영상 프레임에서의 물체의 움직임 변화를 검출하는 움직임 검출부; 상기 물체의 움직임 변화량이 가장 적은 영상 프레임에 대응하는 제2 영상 프레임 또는 제1 영상 프레임을 선택하는 프레임 선택부; 및 상기 선택된 영상 프레임 영역들을 융합하여 광역 보정 영상 신호를 출력하는 융합부를 포함할 수 있다.
상기 프레임 선택부는, 상기 제1 영상 프레임의 소정 영역의 픽셀들이 포화되지 않은 경우, 상기 제1 영상 프레임의 소정 영역을 선택할 수 있다.
상기 프레임 선택부는, 상기 제1 영상 프레임의 소정 영역의 픽셀들이 포화된 경우, 상기 물체의 움직임 변화량이 가장 적은 영상 프레임에 대응하는 제2 영상 프레임의 영역을 선택할 수 있다.
상기 모드 결정부는, 상기 이미지 센서로부터 출력된 소정의 영상 프레임에 대응하는 신호를 수신하고, 상기 소정의 영상 프레임에 포함된 포화 픽셀들의 개수를 카운트하는 포화 픽셀 카운터; 상기 포화 픽셀들의 개수를 소정의 기준값과 비교하는 비교기; 및 상기 비교기의 출력값에 기초하여 영상 처리부의 동작 모드를 결정하는 모드 디시전부를 포함할 수 있다.
상기 동작 모드는, 상기 포화 픽셀 수가 상기 기준값보다 큰 경우에 사용되는 제 1 동작 모드와, 상기 포화 픽셀 수가 상기 기준값보다 작은 경우에 사용되는 제 2 동작 모드를 포함할 수 있다.
상기 제 2 동작 모드에서, 상기 영상 처리부는 제 1 노출시간을 갖는 장노광 영상 프레임과, 상기 제1 노출시간보다 작은 제2 노출시간을 갖는 3개의 단노광 영상 프레임을 수신할 수 있다.
상기 제2 노출시간은 상기 제1 노출시간 보다 작을 수 있다.
본 발명의 다른 실시예에 의한 영상 처리 장치는, 제1 노출시간을 갖는 제1 영상 프레임과, 상기 제1 노출시간과 상이한 하나의 제2 노출시간을 갖는 적어도 2개의 제2 영상 프레임을 출력하는 이미지 센서; 상기 제1 영상 프레임과 상기 적어도 2개의 제2 영상 프레임들 각각에서 상기 영상 프레임의 소정 영역을 비교하여 상기 영상 프레임에서의 물체의 움직임 변화를 검출하는 움직임 검출부; 상기 물체의 움직임 변화량이 가장 적은 영상 프레임에 대응하는 제2 영상 프레임 또는 제1 영상 프레임을 선택하는 프레임 선택부; 및 상기 선택된 영상 프레임 영역들을 융합하여 광역 보정 영상 신호를 출력하는 융합부를 포함한다.
상기 프레임 선택부는, 상기 제1 영상 프레임의 소정 영역의 픽셀들이 포화되지 않은 경우, 상기 제1 영상 프레임의 소정 영역을 선택할 수 있다.
상기 프레임 선택부는, 상기 제1 영상 프레임의 소정 영역의 픽셀들이 포화된 경우, 상기 물체의 움직임 변화량이 가장 적은 영상 프레임에 대응하는 제2 영상 프레임의 영역을 선택할 수 있다.
상기 적어도 2개의 제2 영상 프레임들은 3개의 단노광 영상 프레임들이고, 상기 제2 노출시간은 상기 제1 노출시간 보다 작을 수 있다.
또한, 본 발명의 실시예에 의한 영상 처리 방법은, 소정의 영상 프레임에 대응하는 신호를 수신하는 단계; 상기 소정의 영상 프레임에 포함된 포화 픽셀들의 개수를 카운팅하는 단계; 상기 포화 픽셀들의 개수를 소정의 기준값과 비교하는 단계; 상기 포화 픽셀들의 개수가 기준값보다 작은 경우, 제1 노출시간을 갖는 제1 영상 프레임 및 상기 제1 노출시간과 상이한 하나의 제2 노출시간을 갖는 적어도 2개의 제2 영상 프레임을 출력하는 단계; 상기 제1 영상 프레임과 상기 적어도 2개의 제2 영상 프레임들 각각에서 상기 영상 프레임의 소정 영역을 비교하여 상기 영상 프레임에서의 물체의 움직임 변화를 검출하는 단계; 상기 물체의 움직임 변화량이 가장 적은 영상 프레임에 대응하는 제2 영상 프레임 또는 제1 영상 프레임을 선택하는 단계; 및 상기 선택된 영상 프레임 영역들을 융합하여 광역 보정 영상 신호를 출력한다.
상기 제2 영상 프레임 또는 제1 영상 프레임을 선택하는 단계는, 상기 제1 영상 프레임의 소정 영역의 픽셀들이 포화되지 않은 경우, 상기 제1 영상 프레임의 소정 영역을 선택하는 단계를 포함할 수 있다.
상기 제2 영상 프레임 또는 제1 영상 프레임을 선택하는 단계는, 상기 제1 영상 프레임의 소정 영역의 픽셀들이 포화된 경우, 상기 물체의 움직임 변화량이 가장 적은 영상 프레임에 대응하는 제2 영상 프레임의 영역을 선택할 수 있다.
상기 적어도 2개의 제2 영상 프레임들은 3개의 단노광 영상 프레임들이고, 상기 제2 노출시간은 상기 제1 노출시간 보다 작을 수 있다.
상기 제1 노출시간을 갖는 장노광 영상 프레임 및 상기 제1 노출시간과 상이한 적어도 2개의 제2 노출시간을 갖는 적어도 2개의 단노광 영상 프레임을 출력하는 단계를 더 포함할 수 있고, 상기 적어도 2개의 단노광 영상 프레임들은 상기 제1 노출시간보다 작은 서로 다른 3개의 노출시간을 갖는 3개의 단노광 영상 프레임들일 수 있다.
본 발명의 실시예에 의하면, 촬영시 외부 환경에 따라 촬영되는 영상에 대해 동적 영역을 최대화한 제1 융합 영상 신호를 얻을지 또는 상기 모션 아티팩트를 보정한 제2 융합 영상 신호를 얻을지 미리 결정함을 통해 WDR 처리된 영상의 품질을 향상시킬 수 있다. 또한, 모션 아티팩트를 보정할 경우 노광 시간이 동일한 적어도 2개의 단노광 영상 프레임들을 장노광 영상 프레임과 비교하고, 움직임 검출이 최소인 프레임을 선택하여 모션 아티팩트를 보정할 수 있다.
도 1a 및 1b는 광역 보정 처리시 발생되는 모션 아티팩트를 설명하는 도면.
도 2a는 본 발명의 실시예에 의한 영상 처리 장치를 개략적인 블록도.
도 2b는 도 2a에 도시된 이미지 센서에서 생성되는 제1 이미지 프레임과 제 2이미지 프레임들의 노광 시간을 예시적으로 나타내는 도면.
도 3은 도 2a의 모드 검출부의 개략적인 블록도.
도 4는 본 발명의 실시예에 의한 영상 처리 방법을 나타내는 순서도.
도 5는 본 발명의 실시예에 의한 제2 모드 프로세싱 유닛의 내부 구성을 개략적으로 나타내는 블록도.
도 6은 도 5에 도시된 제2 모드 프로세싱 유닛의 영상 처리 방법의 일 예를 나타내는 순서도.
도 7은 도 5에 도시된 제2 모드 프로세싱 유닛에 의한 이미지 프레임들의 블록들의 융합 과정을 개략적으로 나타내는 도면.
위 발명의 배경이 되는 기술 란에 기재된 내용은 오직 본 발명의 기술적 사상에 대한 배경 기술의 이해를 돕기 위한 것이며, 따라서 그것은 본 발명의 기술 분야의 당업자에게 알려진 선행 기술에 해당하는 내용으로 이해될 수 없다.
아래의 서술에서, 설명의 목적으로, 다양한 실시예들의 이해를 돕기 위해 많은 구체적인 세부 내용들이 제시된다. 그러나, 다양한 실시예들이 이러한 구체적인 세부 내용들 없이 또는 하나 이상의 동등한 방식으로 실시될 수 있다는 것은 명백하다. 다른 예시들에서, 잘 알려진 구조들과 장치들은 장치는 다양한 실시예들을 불필요하게 이해하기 어렵게 하는 것을 피하기 위해 블록도로 표시된다.
도면에서, 레이어들, 필름들, 패널들, 영역들 등의 크기 또는 상대적인 크기는 명확한 설명을 위해 과장될 수 있다. 또한, 동일한 참조 번호는 동일한 구성 요소를 나타낸다.
명세서 전체에서, 어떤 소자 또는 레이어가 다른 소자 또는 레이어와 "연결되어 있다"고 서술되어 있으면, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 그 중간에 다른 소자나 레이어를 사이에 두고 간접적으로 연결되어 있는 경우도 포함한다. 그러나, 만약 어떤 부분이 다른 부분과 "직접적으로 연결되어 있다"고 서술되어 있으면, 이는 해당 부분과 다른 부분 사이에 다른 소자가 없음을 의미할 것이다. "X, Y, 및 Z 중 적어도 어느 하나", 그리고 "X, Y, 및 Z로 구성된 그룹으로부터 선택된 적어도 어느 하나"는 X 하나, Y 하나, Z 하나, 또는 X, Y, 및 Z 중 둘 또는 그 이상의 어떤 조합 (예를 들면, XYZ, XYY, YZ, ZZ) 으로 이해될 것이다. 여기에서, "및/또는"은 해당 구성들 중 하나 또는 그 이상의 모든 조합을 포함한다.
여기에서, 첫번째, 두번째 등과 같은 용어가 다양한 소자들, 요소들, 지역들, 레이어들, 및/또는 섹션들을 설명하기 위해 사용될 수 있지만, 이러한 소자들, 요소들, 지역들, 레이어들, 및/또는 섹션들은 이러한 용어들에 한정되지 않는다. 이러한 용어들은 하나의 소자, 요소, 지역, 레이어, 및/또는 섹션을 다른 소자, 요소, 지역, 레이어, 및 또는 섹션과 구별하기 위해 사용된다. 따라서, 일 실시예에서의 첫번째 소자, 요소, 지역, 레이어, 및/또는 섹션은 다른 실시예에서 두번째 소자, 요소, 지역, 레이어, 및/또는 섹션이라 칭할 수 있다.
"아래", "위" 등과 같은 공간적으로 상대적인 용어가 설명의 목적으로 사용될 수 있으며, 그렇게 함으로써 도면에서 도시된 대로 하나의 소자 또는 특징과 다른 소자(들) 또는 특징(들)과의 관계를 설명한다. 이는 도면 상에서 하나의 구성 요소의 다른 구성 요소에 대한 관계를 나타내는 데에 사용될 뿐, 절대적인 위치를 의미하는 것은 아니다. 예를 들어, 도면에 도시된 장치가 뒤집히면, 다른 소자들 또는 특징들의 "아래"에 위치하는 것으로 묘사된 소자들은 다른 소자들 또는 특징들의 "위"의 방향에 위치한다. 따라서, 일 실시예에서 "아래" 라는 용어는 위와 아래의 양방향을 포함할 수 있다. 뿐만 아니라, 장치는 그 외의 다른 방향일 수 있다 (예를 들어, 90도 회전된 혹은 다른 방향에서), 그리고, 여기에서 사용되는 그런 공간적으로 상대적인 용어들은 그에 따라 해석된다.
여기에서 사용된 용어는 특정한 실시예들을 설명하는 목적이고 제한하기 위한 목적이 아니다. 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함한다" 고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 다른 정의가 없는 한, 여기에 사용된 용어들은 본 발명이 속하는 분야에서 통상적인 지식을 가진 자에게 일반적으로 이해되는 것과 같은 의미를 갖는다.
디지털 카메라를 비롯한 영상 처리 장치들은 성능이 지속적으로 향상되고 있지만, 영상 획득에 사용되는 일반 CCD(charge coupled device) 또는 CMOS(complementary metal oxide semiconductor) 센서의 경우에는 동적 영역(dynamic range)의 한계로 밝은 영역 또는 어두운 영역의 정보를 상실하는 현상이 나타난다. 여기서 동적 영역이란, 영상에서 가장 밝은 영역과 가장 어두운 영역의 밝기 비율을 뜻한다. 영상 획득 장치에 사용되는 센서의 동적 영역은 실세계 장면의 동적 영역보다 매우 작기 때문에 실세계 장면의 밝기 범위를 모두 표현할 수 없다.
도 1a 및 1b는 광역 보정(WDR) 처리시 발생되는 모션 아티팩트를 설명하는 도면이다.
도 1a는 광역 보정 기술에서 장/단 가변 노출(Long/short variable exposure) 방식을 통해 장노광 영상 및 단노광 영상을 센싱하는 과정을 개략적으로 도시하고, 도 1b는 이러한 종래의 광역 보정 기술에서 나타나는 모션 아티펙트를 예시한다.
도 1a를 참조하면, 장/단 가변 노출 방식은 프레임 별로 선택적으로 노출 시간을 조절하여, 셔터를 제어함으로써, WDR 처리에 필요한 장노광 영상 및 단노광 영상을 획득한다.
하나의 영상 센서에서 일반적인 프레임 촬영시에 적용되는 노출 시간(Standard Exposure Time) 동안 장노광 신호(111)를 획득하여 이를 기초로 하나의 롱 프레임(121, 도 1b 참조)을 구성하고, 상대적으로 짧은 노출시간(Short Exposure) 동안 단노광 신호(112)를 획득하여 이를 기초로 다른 하나의 쇼트 프레임(122, 도 1b 참조)을 구성할 수 있다.
도 1b에 도시된 장/단 가변 노출 방식을 통해 롱 프레임(121) 및 쇼트 프레임(122)을 번갈아 가며, 획득하는 경우에 롱 프레임의 촬영시점과, 쇼트 프레임의 촬영시점 사이의 시차로 인하여, 도 1b에 도시된 바와 같이, 장노광 영상 및 단노광 영상이 서로 융합된 융합 프레임(123)에서 모션 아티펙트(Motion artifact, 124)가 발생할 수 있다. 특히, 이는 영상 내에 빠르게 움직이는 물체(Fast moving object)가 포함되어 있는 경우에 더욱 그러하다.
따라서, 촬영되는 실제 장면의 상태에 따라 동적 영역을 최대화한 융합 영상 신호를 얻어야 할지 또는 상기 모션 아티팩트를 보정한 영상 신호를 얻어야 할지 결정하는 것이 필요하다.
본 발명의 실시예는 촬영시 외부 환경에 따라 촬영되는 영상에 기반하여 동적 영역을 최대화한 제1 융합 영상 신호를 얻을지 또는 상기 모션 아티팩트를 보정한 제2 융합 영상 신호를 얻을지 미리 결정할 수 있는 영상 처리 장치 및 방법을 제공한다. 또한, 본 발명의 실시예는 모션 아티팩트를 보정할 경우 노광 시간이 동일한 적어도 2개의 단노광 영상 프레임들을 장노광 영상 프레임과 비교하고, 움직임 검출이 최소인 프레임을 선택하여 모션 아티팩트를 보정하는 영상 처리 장치 및 방법을 제공한다.
도 2a는 본 발명의 실시예에 의한 영상 처리 장치를 개략적인 블록도이다. 도 2b는 도 2a에 도시된 이미지 센서에서 생성되는 제1 이미지 프레임과 제 2이미지 프레임들의 노광 시간을 예시적으로 나타내는 도면이다. 도 3은 도 2a의 모드 검출부의 개략적인 블록도이다. 또한, 도 4는 본 발명의 실시예에 의한 영상 처리 방법을 나타내는 순서도이다.
이하, 도 2 내지 도 4를 참조하여 본 발명의 실시예에 의한 영상 처리 장치 및 방법을 설명하면 다음과 같다.
도 2a를 참조하면, 본 발명의 실시예에 의한 영상 처리 장치(200)는, 이미지 센서(210), 모드 결정부(220), 셔터 제어부(240) 및 영상 처리부(230)를 포함할 수 있다.
이미지 센서(210)는 카메라로 입력되는 광학 신호를 전기 신호로 변환할 수 있다. 상기 이미지 센서(210)는 2개의 모드로 동작 할 수 있으며, 각 모드에서 상기 이미지 센서(210)는 소정의 노출시간을 갖는 제1 이미지 프레임 및 제1 이미지 프레임와 다른 노출시간을 갖는 복수개의 제2 이미지 프레임들을 생성할 수 있다. 여기서 제1 이미지 프레임은 제2 이미지 프레임들에 비해 장시간 노출에 의해 촬영된 장노광 프레임(F1, 도 1a 또는 도 1b에 도시된 롱 프레임)이고, 제2 이미지는 제1 이미지에 비해 단시간 노출에 의해 촬영된 이미지인 단노광 프레임(F2-F4 또는 F5-F7, 도 1a 또는 도 1b에 도시된 쇼트 프레임) 일 수 있다.
여기서, 상기 노출시간이 길어지면 이미지 센서에 집적되는 빛의 양이 증가하여 어두운 부분의 계조 표현력이 풍부해 지지만 밝은 영역은 세츄레이션(saturation) 되어 계조 표현의 범위를 벗어날 수 있다. 반면에, 상기 노출시간이 짧아지면 집적되는 빛의 양이 적어지게 되므로 밝은 부분의 계조 표현력이 풍부해 지지만 어두운 영역은 세츄레이션되어 계조 표현력이 부족할 수 있다.
이러한 이미지 센서(210)는 CCD(charge coupled device) 또는 CMOS(complementary metal oxide semiconductor image sensor) 등을 사용할 수 있다. CMOS로서의 이미지 센서(210)는 촬영에 필요한 소비 전력이 낮아 배터리를 사용하는 감시 카메라의 전력 유지에 큰 강점이 있고, 제조단가가 비교적 저렴하여 촬상소자의 면적을 크게 만들기에 유리하며, 대량 생산이 용이하다. CCD로서의 이미지 센서(210)는 CMOS에 비해 노이즈 발생이 훨씬 적고 이미지 정보 전송 속도가 매우 빨라 연속 촬영 시 저장속도가 빠르며, 화질이 우수하다는 장점이 있다.
본 발명의 실시예의 경우 상기 복수개의 제2 이미지 프레임들은 서로 다른 노출시간을 갖거나, 모두 동일한 노출시간을 갖을 수 있다.
도 2b의 (a)는 서로 다른 노출시간(t2, t3, t4)을 갖는 3개의 제2 이미지 프레임들(F2, F3, F4)을 나타내며, 도 2B의 (b)는 동일한 노출시간(t5)을 갖는 3개의 제2 이미지 프레임들(F5, F6, F7)을 나타낸다. 도 2b의 (a)에 도시된 서로 다른 노출시간(t2, t3, t4)은 제1 이미지 프레임(F1)의 노출시간(t1)보다 작다. 또한, 도 2b의 (b)에 도시된 노출시간(t5)은 제1 이미지 프레임(F1)의 노출시간(t1)보다 작다.
특히, 상기 제2 이미지 프레임들(F5, F6, F7)의 노출시간(t5)은 상기 도 2b의 (a)에 도시된 노출시간 중 가장 짧은 노출시간(t4)과 제1 이미지 프레임(F1)의 노출시간(t1)의 범위 내에서 선택될 수 있다. 일 예로, 상기 노출시간(t5)은 상기 도 2b의 (a)에 도시된 노출시간 중 가장 긴 노출시간(t2)과 동일하게 선택될 수 있다. 도 2b에서는 3개의 제2 이미지 프레임에 생성되는 것으로 그 예로 설명하고 있으나, 본 발명의 실시예가 이에 한정되는 것은 아니다.
이때, 도 2b의 (a)와 같이 상기 제2 이미지 프레임들이 서로 다른 노출시간을 갖게 되면, 이미지 센서의 픽셀들의 계조 표현력을 최대화할 수 있으므로, 이후 영상 처리부(230)를 통해 상기 제1 이미지 프레임 및 제2 이미지 프레임들을 융합함에 있어 향상된 동적 영역을 확보할 수 있다.
반면, 도 2b의 (b)와 같이 상기 제2 이미지 프레임들이 서로 동일한 노출시간을 갖게 되면, 이후 영상 처리부(230)를 통해 상기 제1 이미지 프레임 및 제2 이미지 프레임들을 융합함에 있어 모션 아티팩트 보정 시 이미지의 열화를 최소화할 수 있게 된다.
따라서, 촬영되는 실제 장면의 상태에 따라 동적 영역을 최대화한 융합 영상 신호를 얻어야 할 경우 즉, 제1 모드 동작의 경우에는 상기 도 2b의 (a)와 같이 서로 다른 노출시간(t2, t3, t4)을 갖는 3개의 제2 이미지 프레임들(F2, F3, F4)을 출력하고, 모션 아티팩트를 보정한 융합 영상을 신호를 얻어야 할 경우 즉, 제2 모드 동작의 경우에는 상기 도 2b의 (b)와 같이 동일한 노출시간(t5)을 갖는 3개의 제2 이미지 프레임들(F5, F6, F7)을 출력할 수 있다.
모드 결정부(220)는 상기 이미지 센서(210)에 출력되는 임의의 이미지 프레임에 포함된 포화 픽셀들의 개수를 카운트하고, 이를 기 설정된 기준값과 비교하여 제1 모드 동작 또는 제2 모드 동작 중 어느 하나를 결정할 수 있다.
보다 구체적으로, 도 3을 참조하면, 상기 모드 결정부(220)는 포화 픽셀 카운터(222), 비교부(224) 및 모드 디시전부(226)를 포함한다.
포화 픽셀 카운터(222)는 상기 이미지 센서(210)에서 출력되는 임의의 이미지 프레임에 대응되는 신호를 수신하고, 상기 임의의 프레임에 포함된 포화 픽셀들의 개수를 카운트한다. (단계 ST 400) 이 때, 상기 임의의 프레임은 제2 이미지 프레임들 중에서 선택함이 바람직하며, 특히 제2 이미지 프레임들 중에서 노광 시간이 가장 긴 제2 이미지 프레임(예: F2 또는 F5)를 선택함이 바람직하다. 그러나, 본 발명의 실시예가 이에 한정되는 것은 아니다.
도 3 및 도 4를 참조하면, 비교부(224)는 포화된 픽셀들의 개수와 기 설정된 기준값을 비교하여 그 결과를 모드 디시전부(226)로 출력한다. (단계 ST 410) 이 때, 상기 기준값을 사용자의 설정에 따라 변경될 수 있다.
모드 디시전부(226)는 상기 기 설정된 기준값보다 포화된 픽셀들의 개수가 많은 경우 상기 이미지 센서(210)의 픽셀들의 계조 표현력을 높여야 하는 상황으로 판단하여 제 1모드 동작으로 결정할 수 있다. (단계 ST 420) 반면, 상기 기 설정된 기준값보다 포화된 픽셀들의 개수가 적은 경우는 상기 이미지 센서의 픽셀들의 계조 표현력을 높이는 것 보다 모션 아티팩트를 보정하는 제2 모드 동작으로 결정할 수 있다. (단계 ST 430)
상기 모드 디시전부(226)에서 출력된 신호 즉, 모드 결정부(220)의 출력 신호는 도 2a에 도시된 바와 같이 셔터 제어부(240)에 입력된다.
상기 셔터 제어부(240)는 상기 모드 결정부(220)의 출력 신호에 근거하여 상기 이미지 센서(210)의 셔터 스피드를 제어한다. 즉, 상기 셔터 제어부(240)의 제어에 의해 상기 이미지 센서(210)에서 생성되는 제 1 및 제 2 이미지 프레임들의 노출시간이 결정된다. 일 예로, 상기 모드 결정부(220)에서 제1 모드 동작으로 결정하면 상기 셔터 제어부(240)의 제어에 의해 상기 이미지 센서(210)는 서로 다른 노출시간(t2, t3, t4)을 갖는 3개의 제2 이미지 프레임들(F2, F3, F4)를 생성할 수 있다. (단계 ST 440) 마찬가지로, 상기 모드 결정부(220)에서 제2 모드 동작으로 결정하면 상기 셔터 제어부(240)의 제어에 의해 상기 이미지 센서(210)는 동일한 노출시간(t2)을 갖는 3개의 제2 이미지 프레임들(F5, F6, F7)을 생성할 수 있다. (단계 ST 450)
제1 또는 제2 모드에서, 이미지 프로세싱부(230)는 상기 이미지 센서(210)에서 생성되어 출력되는 제1 이미지 프레임 제2 이미지 프레임들을 수신하여 이를 융합하는 역할을 한다. 보다 구체적으로 상기 이미지 프로세싱부(230)는, 상기 제1 모드 동작을 수행하는 제1 모드 프로세싱부(232)와 상기 제2 모드 동작을 수행하는 제2 모드 프로세싱부(234)를 포함할 수 있다. 이 때, 상기 제1 모드 프로세싱부(232) 및 제2 모드 프로세싱부(234)는 수행하는 동작이 서로 상이하여 구분한 것으로, 이들이 물리적으로 분리 구성되는 것으로 한정되지 않는다.
상기 제1 모드 프로세싱부(232)는 긴 노출시간(t1)을 갖는 제1 이미지 프레임과 서로 다른 노출시간(t2, t3, t4)을 갖는 3개의 제2 이미지 프레임들(F2, F3, F4)를 수신하고 상기 제1 이미지 프레임 및 제2 이미지 프레임들을 융합하여 보다 향상된 WDR 신호를 출력할 수 있다. (단계 ST 460)
반면에, 상기 제2 모드 프로세싱부(234)는 긴 노출시간(t1)을 갖는 제1 이미지 프레임과 서로 동일한 노출시간(t5)을 갖는 3개의 제2 이미지 프레임들(F5, F6, F7)를 수신하고, 상기 각각의 제2 이미지 프레임들을 제1 이미지 프레임과 비교하고, 움직임 검출이 최소인 제 2 이미지 프레임을 선택하여 상기 제1 이미지 프레임 및 제2 이미지 프레임들을 융합함으로써, 모션 아티팩트 보정 시 이미지 열화를 최소화한 WDR 신호를 출력할 수 있다. (단계 ST 470)
이때, 상기 모드 결정부(220), 영상 처리부(230) 및 셔터 제어부(240)는 데이터를 처리할 수 있는 임의의 유형의 장치, 예를 들어 프로세서를 포함할 수 있다. 상기 '프로세서'라는 용어는 하드웨어에 내장된 데이터 처리장치를 의미하는 것으로, 프로그램의 코드나 명령어를 실행하는 물리적 회로를 포함한다. 상기 하드웨어에 내장된 데이터 처리장치의 예로는 마이크로 프로세서, 중앙처리장치 (CPU), 프로세서 코어, 멀티 프로세서, 주문형 집적 회로(ASIC), FPGA 및 다른 공지된 또는 이후 개발된 프로세싱 유닛을 포함할 수 있다. 또한, 모드 결정부(220), 영상 처리부(230) 및 셔터 제어부(240)는 기능 및/또는 설계에 따라 하나의 물리적 칩 또는 하나 이상의 칩으로 구현 될 수 있다. 그러나, 예시적인 실시 예들은 이에 제한되지 않는다.
이하, 도 5 내지 도 7을 참조하여 본 발명의 실시예에 의한 제2 모드 프로세싱 유닛의 구성 및 동작에 대해 보다 구체적으로 설명하도록 한다.
도 5는 본 발명의 실시예에 의한 제2모드 프로세싱 유닛의 개략적인 블록도이다. 도 6은 도 5에 도시된 제2 모드 프로세싱 유닛의 영상 처리 방법의 일 예를 나타내는 순서도이다. 도 7은 도 5에 도시된 제2모드 프로세싱 유닛에 의한 이미지 프레임들의 블록들의 융합 과정을 개략적으로 나타내는 도면이다.
도 5를 참조하면, 상기 제2 모드 프로세싱부(500)는, 움직임 검출부(510), 프레임 선택부(520), 및 융합부(530)를 포함한다.
움직임 검출부(510)는, 도시된 바와 같이 동일한 노출시간(t5)를 갖는 3개의 단노광 이미지 프레임들(F5, 56, F7)과 장 노출시간(t1)을 갖는 하나의 장노광 이미지 프레임(F1)을 수신할 수 있다. 보다 구체적으로, 상기 움직임 검출부(510)는, 제5 이미지 프레임(F5)과 제1 이미지 프레임(F1)을 수신하여 제5 이미지 프레임(F5)에서의 움직임을 검출하는 제1 움직임 검출부(512)와, 제6 이미지 프레임(F6)과 제1 이미지 프레임(F1)을 수신하여 제6 이미지 프레임(F6)에서의 움직임을 검출하는 제2 움직임 검출부(514), 및 제7 이미지 프레임(F7)과 제1 이미지 프레임(F1)을 수신하여 제7 이미지 프레임(F7)에서의 움직임을 검출하는 제3 움직임 검출부(516)를 포함할 수 있다.
즉, 상기 제1 움직임 검출부(512)는 상기 제1 이미지 프레임(F1)과 상기 제5 이미지 프레임(F5)에서 상기 이미지 프레임의 소정 영역을 비교하고, 상기 이미지 프레임에서의 물체의 움직임 변화를 검출할 수 있다. 또한, 상기 제2 움직임 검출부(514)는 상기 제1 이미지 프레임(F1)과 상기 제6 이미지 프레임(F6)에서 상기 이미지 프레임의 소정 영역을 비교하고, 상기 이미지 프레임에서의 물체의 움직임 변화를 검출할 수 있다. 마찬가지로, 상기 제3 움직임 검출부(516)는 상기 제1 이미지 프레임(F1)과 상기 제7 이미지 프레임(F7)에서 상기 이미지 프레임의 소정 영역을 비교하고, 상기 이미지 프레임에서의 물체의 움직임 변화를 검출할 수 있다.
이 때, 상기 이미지 프레임의 소정 영역은 적어도 하나의 픽셀을 포함한 블록 영역이 될 수 있다. 일 예로, 이미지 프레임의 전체영역을 복수개의 블록들로 구분하고, 상기 제1 내지 3 움직임 검출부들(512, 514, 516)이 상기 각각의 블록 영역별로 제1 이미지 프레임(F1)과 제5 내지 제7의 이미지 프레임들(F5, F6, F7) 각각을 비교하여 각 블록 영역에서의 움직임 변화를 검출할 수 있다. 상기 블록 영역은 하나의 픽셀만을 포함하거나 복수개의 픽셀들(예: 13x13 픽셀들)을 포함할 수도 있다.
상기 블록 영역이 복수개의 픽셀들로 구성되는 경우 상기 제1 내지 제3 움직임 검출부들(512, 514, 516)이 상기 제1 이미지 프레임(F1) 및 각각의 제5 내지 제7 이미지 프레임(F5, F6, F7)으로부터 움직임을 검출함에 있어서, 어느 하나의 영상에 대해 노광 비율에 따른 게인을 곱하여 정규화한 후에 차분을 산출하여 얻을 수 있다. 단, 이는 하나의 실시예로서 본 발명의 실시예가 이에 한정되는 것은 아니다.
프레임 선택부(520)는, 상기 제1 이미지 프레임(F1) 및 상기 제1 내지 제3 움직임 검출부(512, 514, 516)의 출력신호를 수신하고, 상기 블록 영역에서 물체의 움직임 변화량이 가장 적은 제2 이미지 프레임의 해당 블록 영역 또는 상기 제1 이미지 프레임의 해당 블록 영역을 선택할 수 있다.
보다 구체적으로, 상기 제1 이미지 프레임의 소정 블록 영역 내의 픽셀들이 포화되지 않은 경우에는 상기 움직임 검출부의 결과와 상관없이 제1 이미지 프레임의 소정 블록 영역을 선택할 수 있다.
반면, 상기 제1 이미지 프레임의 블록 영역 내 픽셀들이 포화된 경우에는 상기 제1 내지 제3 움직임 검출부(512, 514, 516)의 출력신호를 수신하고, 상기 블록 영역에서 물체의 움직임 변화량이 가장 적은 제2 이미지 프레임의 해당 블록 영역을 선택할 수 있다.
융합부(530)는 상기 프레임 선택부(520)를 통해 선택된 이미지 프레임 영역들 모두를 융합시켜 WDR 영상 신호를 출력할 수 있다.
다른 실시예로서, 상기 블록은 하나의 픽셀만으로 구성될 수 있고, 이 경우 상기 제1 내지 제3 움직임 검출부(512, 514, 516)의 출력신호는 해당 픽셀에서 움직임이 검출된 것과 검출되지 않은 것으로 구분될 수 있다. 일 예로, 상기 제1 내지 제3 움직임 검출부의 출력신호가 "0"이면 움직임이 검출된 것이고, 제1 내지 제3 움직임 검출부의 출력신호가 "1"이면 움직임이 검출되지 않은 것이다.
도 6은 상기 블록이 하나의 픽셀로 구성된 경우 제2 모드 프로세싱 유닛의 프레임 선택부(520) 및 융합부(530)에 의한 영상 처리 방법의 일 예를 나타내는 순서도이다. 다만, 이는 설명의 편의를 위한 것으로, 상기 블록이 반드시 하나의 픽셀로 구성되는 것으로 한정되지 않는다.
도 5 및 도 6을 참조하면, 먼저 프레임 선택부(520)에 입력된 제1 이미지 프레임의 블록에 해당하는 픽셀이 포화되었는지 판단하고 (단계 ST 61), 포화되지 않은 경우는 움직임 검출부의 결과와 상관없이 제1 이미지 프레임(F1)의 블록을 선택한다. (단계 ST 62)
반면, 상기 프레임 선택부(520)에 입력된 제1 이미지 프레임(F1)의 블록에 해당하는 픽셀이 포화된 경우, 제1 움직임 검출부(512)의 출력신호가 "0"인지 판단한다 (단계 ST 63). 상기 제1 움직임 검출부의 출력신호가 "1"이면 움직임이 검출되지 않은 것이므로, 제5 이미지 프레임(F5)의 블록을 선택한다 (단계 ST 64).
다음, 제1 움직임 검출부(512)의 출력신호가 "0"이면, 움직임이 검출된 것이므로, 그 다음으로 제2 움직임 검출부(514)의 출력신호가 "0"인지 판단한다 (단계 ST 65). 상기 제2 움직임 검출부(514)의 출력신호가 "1"이면 움직임이 검출되지 않은 것이므로, 제6 이미지 프레임(F6)의 블록을 선택한다 (단계 ST 66).
다음, 제2 움직임 검출부(514)의 출력신호가 "0"이면, 움직임이 검출된 것이므로, 그 다음으로 제3 움직임 검출부(516)의 출력신호가 "0"인지 판단한다 (단계 ST 67). 상기 제3 움직임 검출부(516)의 출력신호가 "1"이면 움직임이 검출되지 않은 것이므로, 제7 이미지 프레임(F7)의 블록을 선택한다 (단계 ST 68).
반면에, 제3 움직임 검출부(516)의 출력신호가 "0"이면 움직임이 검출된 것이고, 이는 제5 내지 제7 이미지 프레임(F5, F6, F7)의 블록들 모두 움직임이 검출된 것을 의미하므로, 이 경우는 제1 이미지 프레임(F1)의 블록을 선택할 수 있다.
도 7을 참조하면, 이는 실제 촬영시 삼각형 물체가 왼쪽에서 오른쪽으로 이동하고, 별 모양의 물체가 새롭게 나타나 모션 아티팩트가 발생되는 경우를 가정한다. 제 1 내지 제 4블록들(B1-B4)과 같은 복수의 블록들을 포함하는 융합 프레임을 형성함에 있어서, 프레임 선택부(520)는 모션 아티팩트를 보정하기 위해 제1 이미지 프레임(F1)의 제1 블록(B1), 및 제5 내지 제7 이미지 프레임들(F5, F6, F7)에서는 상기 이동 물체 및 새로운 물체에 의한 움직임이 검출되는 않은 블록들인 제5 이미지 프레임의 제3 블록(B3), 제6 이미지 프레임(F6)의 제2 블록(B2), 및 제7 이미지 프레임(F7)의 제4 블록(B4)을 선택할 수 있다.
보다 구체적으로, 일 예로, 제1 이미지 프레임(F1)의 제1 블록(B1)을 구성하는 픽셀들은 포화되지 않고, 제1 이미지 프레임(F1)의 제2 내지 제4 블록(B2-B4)을 구성하는 픽셀들은 포화된 경우를 가정하여 설명하면 다음과 같다.
제 1블록(B1)의 경우는, 제1 이미지 프레임(F1)의 제1 블록(B1)을 구성하는 픽셀들은 포화되지 않았으므로 움직임 검출부(510)의 결과에 관계없이 제1 이미지 프레임(F1)의 제1 블록(B1)이 선택된다.
제 2블록(B2)의 경우는, 제1 이미지 프레임(F1)의 제2 블록(B2)을 구성하는 픽셀들이 포화되었고, 제5 이미지 프레임(F5)의 제2 블록(B2)에서 움직임이 검출되었으므로, 제6 이미지 프레임(F6)의 제2 블록(B2)이 선택된다.
제 3블록(B3)의 경우는, 제1 이미지 프레임(F1)의 제3 블록(B3)을 구성하는 픽셀들이 포화되었고, 제5 이미지 프레임(F5)의 제2 블록(B4)에서 움직임이 검출되지 않았으므로, 제5 이미지 프레임(F5)의 제3 블록(B3)이 선택된다.
제 4블록(B4)의 경우는, 제1 이미지 프레임(F1)의 제4 블록(B4)을 구성하는 픽셀들이 포화되었고, 제5 및 제6 이미지 프레임(F5, F6)의 제4 블록(B4)에서 움직임이 검출되었으므로, 제7 이미지 프레임(F7)의 제4 블록(B4)이 선택된다.
따라서, 상기 융합 프레임은 물체의 이동에 의한 모션 아티팩트가 보정될 수 있다.
또한, 본 발명의 실시예의 경우 상기 제5 내지 제7 이미지 프레임들(F5, F6, F7)의 노출 시간이 모두 동일하므로 위와 같이 모션 아티팩트 보정 시 이미지 열화를 최소화한 WDR 신호를 출력할 수 있다. 일 예로, 융합되는 단노광 이미지 프레임들의 노출 시간이 동일하므로 융합 시 상기 블록 별 휘도 차이 등에 의한 이미지 열화를 방지할 수 있다.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.

Claims (20)

  1. 제1 노출시간을 갖는 제1 영상 프레임과, 상기 제1 노출시간과 상이한 하나의 제2 노출시간을 갖는 적어도 2개의 제2 영상 프레임을 출력하는 이미지 센서;
    상기 이미지 센서에서 출력되는 이미지 프레임 내의 포화 픽셀들의 개수에 기초하여 상기 제 2 노출 시간을 결정하는 모드 결정부;
    상기 모드 결정부의 출력 신호에 기초하여 상기 이미지 센서의 각 프레임들의 노출시간을 제어하는 셔터 제어부; 및
    상기 제1 영상 프레임과 상기 적어도 2개의 제2 영상 프레임을 융합하여 광역 보정 영상 신호를 출력하는 영상 처리부를 포함하되,
    상기 영상 처리부는, 상기 적어도 2개의 제2 영상 프레임 내에서 물체의 움직임 변화가 검출되지 않는 블록 영역을 선택하고, 상기 선택된 블록 영역과 대응되는 상기 제1 영상 프레임 상의 위치에 상기 선택된 블록 영역을 융합함으로써 상기 광역 보정 영상 신호를 형성하는, 영상 처리 장치.
  2. 제1 항에 있어서,
    상기 영상 처리부는,
    상기 제1 영상 프레임과 상기 적어도 2개의 제2 영상 프레임들 각각에서 상기 영상 프레임의 소정 영역을 비교하여 상기 영상 프레임에서의 물체의 움직임 변화를 검출하는 움직임 검출부;
    상기 물체의 움직임 변화량이 가장 적은 영상 프레임에 대응하는 제2 영상 프레임 또는 제1 영상 프레임을 선택하는 프레임 선택부; 및
    상기 선택된 영상 프레임 영역들을 융합하여 상기 광역 보정 영상 신호를 출력하는 융합부를 포함하는 영상 처리 장치.
  3. 제2 항에 있어서,
    상기 프레임 선택부는, 상기 제1 영상 프레임의 소정 영역의 픽셀들이 포화되지 않은 경우, 상기 제1 영상 프레임의 소정 영역을 선택하는 영상 처리 장치.
  4. 제2 항에 있어서,
    상기 프레임 선택부는, 상기 제1 영상 프레임의 소정 영역의 픽셀들이 포화된 경우, 상기 물체의 움직임 변화량이 가장 적은 영상 프레임에 대응하는 제2 영상 프레임의 영역을 선택하는 영상 처리 장치.
  5. 제1 항에 있어서,
    상기 모드 결정부는,
    상기 이미지 센서로부터 출력된 소정의 영상 프레임에 대응하는 신호를 수신하고, 상기 소정의 영상 프레임에 포함된 포화 픽셀들의 개수를 카운트하는 포화 픽셀 카운터;
    상기 포화 픽셀들의 개수를 소정의 기준값과 비교하는 비교기; 및
    상기 비교기의 출력값에 기초하여 영상 처리부의 동작 모드를 결정하는 모드 디시전부를 포함하는 영상 처리 장치.
  6. 제5 항에 있어서,
    상기 동작 모드는, 상기 포화 픽셀 수가 상기 기준값보다 큰 경우에 사용되는 제 1 동작 모드와, 상기 포화 픽셀 수가 상기 기준값보다 작은 경우에 사용되는 제 2 동작 모드를 포함하는 영상 처리 장치.
  7. 제6 항에 있어서,
    상기 제 2 동작 모드에서, 상기 영상 처리부는 제 1 노출시간을 갖는 장노광 영상 프레임과, 상기 제1 노출시간보다 작은 제2 노출시간을 갖는 3개의 단노광 영상 프레임을 수신하는 영상 처리 장치.
  8. 제1 항에 있어서,
    상기 제2 노출시간은 상기 제1 노출시간 보다 작은 영상 처리 장치.
  9. 제1 노출시간을 갖는 제1 영상 프레임과, 상기 제1 노출시간과 상이한 하나의 제2 노출시간을 갖는 적어도 2개의 제2 영상 프레임을 출력하는 이미지 센서;
    상기 제1 영상 프레임과 상기 적어도 2개의 제2 영상 프레임들 각각에서 상기 영상 프레임의 소정 영역을 비교하여 상기 영상 프레임에서의 물체의 움직임 변화를 검출하는 움직임 검출부;
    상기 물체의 움직임 변화량이 가장 적은 영상 프레임에 대응하는 제2 영상 프레임 또는 제1 영상 프레임을 선택하는 프레임 선택부; 및
    상기 선택된 영상 프레임 영역들을 융합하여 광역 보정 영상 신호를 출력하는 융합부를 포함하되,
    상기 융합부는, 상기 움직임 검출부에 기초하여 상기 적어도 2개의 제2 영상 프레임 내에서 물체의 움직임 변화가 검출되지 않는 블록 영역을 선택하고, 상기 선택된 블록 영역과 대응되는 상기 제1 영상 프레임 상의 위치에 상기 선택된 블록 영역을 융합함으로써 상기 광역 보정 영상 신호를 형성하는, 영상 처리 장치.
  10. 소정의 영상 프레임에 대응하는 신호를 수신하는 단계;
    상기 소정의 영상 프레임에 포함된 포화 픽셀들의 개수를 카운팅하는 단계;
    상기 포화 픽셀들의 개수를 소정의 기준값과 비교하는 단계;
    상기 포화 픽셀들의 개수가 기준값보다 작은 경우, 제1 노출시간을 갖는 제1 영상 프레임 및 상기 제1 노출시간과 상이한 하나의 제2 노출시간을 갖는 적어도 2개의 제2 영상 프레임을 출력하는 단계;
    상기 제1 영상 프레임과 상기 적어도 2개의 제2 영상 프레임들 각각에서 상기 영상 프레임의 소정 영역을 비교하여 상기 영상 프레임에서의 물체의 움직임 변화를 검출하는 단계;
    상기 물체의 움직임 변화량이 가장 적은 영상 프레임에 대응하는 제2 영상 프레임 또는 제1 영상 프레임을 선택하는 단계; 및
    상기 선택된 영상 프레임 영역들을 융합하여 광역 보정 영상 신호를 출력하는 단계를 포함하되,
    상기 광역 보정 영상 신호를 출력하는 단계는,
    상기 물체의 움직임 변화를 검출하는 단계에 기초하여, 상기 적어도 2개의 제2 영상 프레임 내에서 물체의 움직임 변화가 검출되지 않는 블록 영역을 선택하는 단계; 및
    상기 선택된 블록 영역과 대응되는 상기 제1 영상 프레임 상의 위치에 상기 선택된 블록 영역을 융합함으로써 상기 광역 보정 영상 신호를 형성하는 단계를 포함하는, 영상 처리 방법.
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
KR1020180060883A 2018-05-01 2018-05-29 영상 처리 장치 및 방법 KR102621472B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/968,147 US10554902B2 (en) 2018-05-01 2018-05-01 Apparatus and method for processing images
US15/968,147 2018-05-01

Publications (2)

Publication Number Publication Date
KR20190126232A KR20190126232A (ko) 2019-11-11
KR102621472B1 true KR102621472B1 (ko) 2024-01-09

Family

ID=68384019

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180060883A KR102621472B1 (ko) 2018-05-01 2018-05-29 영상 처리 장치 및 방법

Country Status (3)

Country Link
US (1) US10554902B2 (ko)
KR (1) KR102621472B1 (ko)
CN (1) CN110430368B (ko)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115037884A (zh) 2018-06-01 2022-09-09 苹果公司 用于成像的统一包围曝光方法
EP3867863A4 (en) * 2018-10-15 2022-07-20 Bio-Rad Laboratories, Inc. SATURATION AVOIDANCE IN DIGITAL IMAGING
US10855896B1 (en) 2018-12-13 2020-12-01 Facebook Technologies, Llc Depth determination using time-of-flight and camera assembly with augmented pixels
US10791282B2 (en) * 2018-12-13 2020-09-29 Fenwick & West LLP High dynamic range camera assembly with augmented pixels
US10791286B2 (en) 2018-12-13 2020-09-29 Facebook Technologies, Llc Differentiated imaging using camera assembly with augmented pixels
US11151702B1 (en) * 2019-09-09 2021-10-19 Apple Inc. Deep learning-based image fusion for noise reduction and high dynamic range
CN110809122A (zh) * 2019-11-11 2020-02-18 中国电子科技集团公司第四十四研究所 应用于cmos图像传感器的动态扩展方法
US10902623B1 (en) 2019-11-19 2021-01-26 Facebook Technologies, Llc Three-dimensional imaging with spatial and temporal coding for depth camera assembly
US11194160B1 (en) 2020-01-21 2021-12-07 Facebook Technologies, Llc High frame rate reconstruction with N-tap camera sensor
CN113112441B (zh) * 2021-04-30 2022-04-26 中北大学 基于密集网络和局部亮度遍历算子的多波段低分辨率图像同步融合方法
KR20230169720A (ko) * 2022-06-09 2023-12-18 한화비전 주식회사 영상 획득 장치
US11889197B1 (en) * 2022-09-09 2024-01-30 Samsung Electronics Co., Ltd. Reference frame selection for multi-frame image processing pipelines and other applications
CN115412678B (zh) * 2022-10-20 2023-05-26 荣耀终端有限公司 曝光处理方法、装置及电子设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7548689B2 (en) * 2007-04-13 2009-06-16 Hewlett-Packard Development Company, L.P. Image processing method
US8248481B2 (en) * 2009-04-08 2012-08-21 Aptina Imaging Corporation Method and apparatus for motion artifact removal in multiple-exposure high-dynamic range imaging
US8885978B2 (en) * 2010-07-05 2014-11-11 Apple Inc. Operating a device to capture high dynamic range images
JP2012105225A (ja) * 2010-11-12 2012-05-31 Sony Corp 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP5821571B2 (ja) 2011-11-28 2015-11-24 富士通株式会社 画像合成装置及び画像合成方法
KR101871945B1 (ko) * 2013-01-17 2018-08-02 한화에어로스페이스 주식회사 영상 처리 장치 및 방법
KR101926490B1 (ko) 2013-03-12 2018-12-07 한화테크윈 주식회사 이미지 처리 장치 및 방법
JP6184290B2 (ja) 2013-10-21 2017-08-23 ハンファテクウィン株式会社Hanwha Techwin Co.,Ltd. 画像処理装置および画像処理方法
US9342871B2 (en) * 2014-05-30 2016-05-17 Apple Inc. Scene motion correction in fused image systems
US20160037043A1 (en) * 2014-08-01 2016-02-04 Omnivision Technologies, Inc. High dynamic range (hdr) images free of motion artifacts
JP6149826B2 (ja) * 2014-09-01 2017-06-21 株式会社Jvcケンウッド 撮像装置及びシーン判定方法
JP6376339B2 (ja) 2014-09-09 2018-08-22 ハンファエアロスペース株式会社Hanwha Aerospace Co.,Ltd. 画像処理装置および画像処理方法
KR102207633B1 (ko) * 2014-11-27 2021-01-26 삼성전자주식회사 촬영 장치 및 그 제어 방법

Also Published As

Publication number Publication date
US20190342485A1 (en) 2019-11-07
CN110430368A (zh) 2019-11-08
US10554902B2 (en) 2020-02-04
CN110430368B (zh) 2022-08-12
KR20190126232A (ko) 2019-11-11

Similar Documents

Publication Publication Date Title
KR102621472B1 (ko) 영상 처리 장치 및 방법
EP3308537B1 (en) Calibration of defective image sensor elements
US8605185B2 (en) Capture of video with motion-speed determination and variable capture rate
US9646397B2 (en) Image processing apparatus and image processing method
US9654681B2 (en) Electronic apparatus and method of controlling the same
US8233094B2 (en) Methods, systems and apparatuses for motion detection using auto-focus statistics
KR20200022041A (ko) 멀티플렉싱되는 하이 다이나믹 레인지 이미지
KR101120966B1 (ko) 카메라에 대한 핸드 지터 감소 시스템
US20170318208A1 (en) Imaging device, imaging method, and image display device
US20140063285A1 (en) Image data processing apparatus, imaging apparatus, and image data processing method
US11810275B2 (en) Temporal filtering restart for improved scene integrity
JP6149826B2 (ja) 撮像装置及びシーン判定方法
US20120086840A1 (en) Dynamic range enhancement
US20110187877A1 (en) Image Correction For Image Capturing With an Optical Image Stabilizer
CN107205123B (zh) 闪光带判断装置及其控制方法、存储介质和摄像设备
US20140334741A1 (en) Apparatus and method for image processing
JP6478703B2 (ja) 撮像装置及び撮像システム
JP6173027B2 (ja) 画像処理装置および画像処理方法
JP5967504B1 (ja) 全方位カメラシステム
CN114450934B (zh) 获取图像的方法、装置、设备及计算机可读存储介质
US11711613B2 (en) Image alignment for computational photography
CN109429021B (zh) 用于生成高动态范围图像的高动态范围成像设备和方法
CN117412185A (zh) 图像生成方法、装置、电子设备和计算机可读存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant