KR20140009706A - Image processing device of searching and controlling an motion blur included in an image data and method thereof - Google Patents

Image processing device of searching and controlling an motion blur included in an image data and method thereof Download PDF

Info

Publication number
KR20140009706A
KR20140009706A KR1020120076186A KR20120076186A KR20140009706A KR 20140009706 A KR20140009706 A KR 20140009706A KR 1020120076186 A KR1020120076186 A KR 1020120076186A KR 20120076186 A KR20120076186 A KR 20120076186A KR 20140009706 A KR20140009706 A KR 20140009706A
Authority
KR
South Korea
Prior art keywords
image
boundary
motion blur
pixel
pixel value
Prior art date
Application number
KR1020120076186A
Other languages
Korean (ko)
Other versions
KR101886246B1 (en
Inventor
김남준
박두식
최창규
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120076186A priority Critical patent/KR101886246B1/en
Publication of KR20140009706A publication Critical patent/KR20140009706A/en
Application granted granted Critical
Publication of KR101886246B1 publication Critical patent/KR101886246B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)

Abstract

Disclosed is an image processing device searching and processing a motion blur area included in image data. The image processing device according to an embodiment of the present invention includes an image photographing unit obtaining a first image and a second image with one shot; a motion blur area detecting unit detecting the motion blur area in which a motion blur is generated based on the first image and the second image; and an image restoration unit generating a restored image based on the first image, the second image, and the motion blur area. [Reference numerals] (110) Image photographing unit; (111) Image generation unit; (112) Histogram equalization unit; (120) Motion blur area detecting unit; (121) Boundary extracting unit; (122) Motion blur area acquisition unit; (130) Image restoration unit; (AA) Light; (BB) Restored image

Description

이미지 데이터에 포함된 모션 블러 영역을 찾고 그 모션 블러 영역을 처리하는 이미지 프로세싱 장치 및 그 장치를 이용한 이미지 프로세싱 방법{IMAGE PROCESSING DEVICE OF SEARCHING AND CONTROLLING AN MOTION BLUR INCLUDED IN AN IMAGE DATA AND METHOD THEREOF}IMAGE PROCESSING DEVICE OF SEARCHING AND CONTROLLING AN MOTION BLUR INCLUDED IN AN IMAGE DATA AND METHOD THEREOF}

아래 실시예들은 이미지 데이터에 포함된 모션 블러 영역을 찾고 그 모션 블러 영역을 처리하는 이미지 프로세싱 장치 및 그 장치를 이용한 이미지 프로세싱 방법에 관한 것이다.
The following embodiments relate to an image processing apparatus for finding a motion blur region included in image data and processing the motion blur region, and an image processing method using the apparatus.

이미지 프로세싱(image processing)은 넓게는 입출력이 영상인 모든 형태의 정보 처리를 가리키며, 예를 들어 사진이나 동영상을 처리하는 작업 등을 포함할 수 있다. 대부분의 영상 처리 기법은 화상을 2차원 신호로 보고 여기에 표준적인 신호 처리 기법을 적용하는 방법을 이용한다.Image processing broadly refers to all types of information processing where input / output is an image, and may include, for example, processing a picture or a video. Most image processing techniques use a method of viewing an image as a 2D signal and applying standard signal processing techniques thereto.

이미지 센서는 이미지 프로세싱을 위한 입력 데이터를 센싱하는 장치로서, 예를 들어 CCD 이미지 센서 및 CMOS 이미지 센서를 포함할 수 있다.The image sensor is an apparatus for sensing input data for image processing, and may include, for example, a CCD image sensor and a CMOS image sensor.

디지털 카메라나 카메라폰에 포함된 CCD 이미지 센서 또는 CMOS 이미지 센서는 노출 시간 동안 광전 소자에 의해 모인 전하를 일정한 속도로 리드 아웃(read-out)할 수 있다. CCD image sensors or CMOS image sensors included in digital cameras or camera phones can read out the charge collected by the optoelectronic device at a constant rate during the exposure time.

이 때, 일반적인 보급형 디지털 카메라나 카메라폰에 쓰이는 CCD 이미지 센서나 CMOS 이미지 센서는 크기가 작을 수 있다. 따라서, 빛의 양이 상대적으로 적은 실내에서 촬영하거나 밤에 촬영하는 경우, 리드 아웃 속도가 느려질 수 있다. 이 경우, 이미지 센서가 충분한 전하를 얻기 위해 노출 시간을 늘려야 하는데, 그 결과 손 떨림이나 사물의 움직임과 같은 모션에 민감하게 된다. In this case, a CCD image sensor or a CMOS image sensor used in a general-purpose digital camera or a camera phone may have a small size. Therefore, when shooting indoors or at night when the amount of light is relatively low, the lead-out speed may be slowed down. In this case, the image sensor needs to increase the exposure time to obtain sufficient charge, which results in it being sensitive to motion such as hand shake and object movement.

또한, 카메라의 줌 기능을 사용하는 경우 초점거리가 길어지고 화각이 좁아지므로, 작은 흔들림에도 이미지의 결과물에 큰 모션으로 나타날 수 있다. In addition, when the zoom function of the camera is used, the focal length becomes longer and the angle of view becomes narrower, so that even a small shake may appear in the motion of the image in large motion.

이러한 모션에 의하여 이미지에 모션 블러가 발생될 수 있다. 이러한 모션 블러를 제거하기 위해 카메라의 노출 시간을 임의로 줄이는 경우, 모션 블러는 줄어들지만 이미지에 많은 노이즈가 생기고 밝기가 어두워질 수 있다.
Such motion may cause motion blur in the image. If the exposure time of the camera is arbitrarily reduced to eliminate such motion blur, the motion blur is reduced but the image may be much noisy and the brightness may be dark.

일 측에 따른 이미지 데이터에 포함된 모션 블러(motion blur)를 처리하는 이미지 프로세싱 장치는 한 번의 촬영으로 제1 이미지와 제2 이미지를 획득하는 이미지 촬영부; 상기 제1 이미지와 상기 제2 이미지에 기초하여 모션 블러가 발생된 모션 블러 영역을 검출하는 모션 블러 영역 검출부; 및 상기 제1 이미지, 상기 제2 이미지, 및 상기 모션 블러 영역에 기초하여 복원 이미지를 생성하는 이미지 복원부를 포함한다.An image processing apparatus for processing a motion blur included in image data according to one side may include: an image photographing unit configured to acquire a first image and a second image in one shot; A motion blur region detector configured to detect a motion blur region where motion blur is generated based on the first image and the second image; And an image reconstructor configured to generate a reconstructed image based on the first image, the second image, and the motion blur region.

이 때, 상기 이미지 촬영부는 제1 노출 시간에 기초하여 상기 제1 이미지를 생성하고, 제2 노출 시간에 기초하여 상기 제2 이미지를 생성하는 이미지 생성부를 포함하고, 상기 제1 노출 시간은 상기 제2 노출 시간보다 짧을 수 있다.The image capturing unit may include an image generating unit generating the first image based on a first exposure time and generating the second image based on a second exposure time. 2 may be shorter than the exposure time.

또한, 상기 이미지 촬영부는 상기 제2 이미지에 기초하여 상기 제1 이미지에 상기 제 2 이미지의 디자이어드 히스토그램(desired histogram) 정보를 사용하여 상기 제 1 이미지상에 히스토그램 등화(histogram equalization) 기법을 적용하는 히스토그램 등화부를 더 포함할 수 있다.The image capturing unit may apply a histogram equalization technique to the first image based on the second image by using histogram information of the second image. The histogram equalizer may be further included.

또한, 상기 모션 블러 영역 검출부는 상기 제 2 이미지의 디자이어드 히스토그램 정보를 사용하여 히스토그램 등화가 수행된 상기 제1 이미지에 포함된 제1 경계(edge)를 추출하고, 상기 제2 이미지에 포함된 제2 경계를 추출하는 경계 추출부; 및 상기 제1 경계와 상기 제2 경계에 기초하여 상기 모션 블러 영역을 획득하는 모션 블러 영역 획득부를 포함할 수 있다.In addition, the motion blur region detector extracts a first edge included in the first image on which histogram equalization is performed by using the histogram information of the second image, and includes a first image included in the second image. A boundary extractor for extracting two boundaries; And a motion blur region acquirer configured to obtain the motion blur region based on the first boundary and the second boundary.

또한, 상기 경계 추출부는 경계인지 여부를 판단하기 위한 문턱값을 결정하는 문턱값 결정부; 및 상기 문턱값에 기초하여 상기 제1 경계와 상기 제2 경계를 생성하는 경계 생성부를 포함할 수 있다. 이 경우, 문턱값 결정부는 곤잘레즈 스레시홀드 기법(Gonzalez’s threshold method)을 이용할 수 있다.The boundary extractor may further include: a threshold determiner configured to determine a threshold for determining whether the boundary is a boundary; And a boundary generator configured to generate the first boundary and the second boundary based on the threshold value. In this case, the threshold determination unit may use the Gonzalez's threshold method.

또한, 상기 모션 블러 영역 획득부는 상기 제1 경계와 상기 제2 경계를 포함하는 제3 경계-상기 제3 경계는 상기 제 1 경계로부터 모션에 의해 이동된 상기 제 2 경계까지의 무브먼트(movement)를 구성함-를 생성하는 경계 생성부; 및 제안된 단순 패쇄 경로 영역 마스킹(simple closed path region masking) 기법에 따라 상기 제3 경계에 의해 둘러싸인 영역을 포함하는 상기 모션 블러 영역을 생성하는 모션 블러 영역 생성부를 포함할 수 있다.In addition, the motion blur region obtaining unit may include a third boundary including the first boundary and the second boundary, wherein the third boundary comprises a movement from the first boundary to the second boundary moved by motion. A boundary generating unit for generating a constitution box; And a motion blur region generator for generating the motion blur region including the region surrounded by the third boundary according to the proposed simple closed path region masking technique.

또한, 상기 단순 패쇄 경로 영역 마스킹 기법은 OR 연산과 AND 연산을 이용하여 상기 제3 경계에 둘러싸인 영역을 획득할 수 있다.In addition, the simple block path region masking technique may obtain an area surrounded by the third boundary by using an OR operation and an AND operation.

또한, 상기 이미지 복원부는 상기 모션 블러 영역에 포함되는 복수의 픽셀들을 제안된 웨이티드 컬러 인터폴레이션(weighted color interpolation) 기법에 의해 모션 디블러링 함으로써 상기 복원 이미지를 생성할 수 있다.The image reconstructor may generate the reconstructed image by motion blurring a plurality of pixels included in the motion blur region by a proposed weighted color interpolation technique.

또한, 상기 이미지 복원부는 상기 제2 이미지에 기초하여 상기 모션 블러 영역에 포함되지 않는 복수의 픽셀들 각각의 픽셀값과 모션 블러 영역에 포함되는 상기 히스토그램 등화된(histogram equalized) 제 1 이미지의 픽셀값들을 설정함으로써 상기 복원 이미지를 생성할 수 있다.The image reconstructor may further include pixel values of each of the pixels that are not included in the motion blur region and pixel values of the histogram equalized first image included in the motion blur region based on the second image. The reconstructed image may be generated by setting the values.

또한, 상기 이미지 복원부는 상기 모션 블러 영역에 포함되는 대상 픽셀을 모션 디블러링 하기 위해 참조되는 복수의 참조 픽셀들을 상기 모션 블러 영역에 포함되지 않는 복수의 픽셀들로부터 추출하는 참조 픽셀 추출부; 상기 대상 픽셀과 상기 복수의 참조 픽셀들 각각 사이의 거리에 기초하여 상기 복수의 참조 픽셀들 각각의 가중치(weight)를 계산하는 가중치 계산부; 상기 제2 이미지에 포함된 복수의 픽셀들 중 상기 복수의 참조 픽셀들 각각에 대응되는 픽셀의 픽셀값과 상기 가중치에 기초하여 상기 복수의 참조 픽셀들 각각의 가중 픽셀값을 계산하는 가중 픽셀값 계산부; 및 상기 제1 이미지에 포함된 복수의 픽셀들 중 상기 대상 픽셀에 대응되는 히스토그램 등화된 픽셀의 픽셀값, 상기 가중치, 및 상기 가중 픽셀값에 기초하여 상기 대상 픽셀의 픽셀값을 계산하는 대상 픽셀값 계산부를 포함할 수 있다.The image reconstruction unit may further include: a reference pixel extracting unit configured to extract a plurality of reference pixels, which are referred to for motion blurring a target pixel included in the motion blur region, from a plurality of pixels not included in the motion blur region; A weight calculator configured to calculate a weight of each of the plurality of reference pixels based on a distance between the target pixel and each of the plurality of reference pixels; A weighted pixel value calculation for calculating a weighted pixel value of each of the plurality of reference pixels based on a pixel value of the pixel corresponding to each of the plurality of reference pixels among the plurality of pixels included in the second image and the weight. part; And a target pixel value for calculating a pixel value of the target pixel based on the pixel value, the weight, and the weighted pixel value of the histogram equalized pixel corresponding to the target pixel among the plurality of pixels included in the first image. It may include a calculation unit.

또한, 상기 대상 픽셀값 계산부는 상기 대상 픽셀이 상기 제1 경계에 포함되는 경우 상기 대상 픽셀에 대응되는 히스토그램 등화된 픽셀의 픽셀값과 관련된 가중치 인자의 값을 증가시키고, 상기 대상 픽셀이 상기 제1 경계에 포함되지 않는 경우 상기 가중치 및 상기 가중 픽셀값과 관련된 가중치 인자의 값을 증가시킬 수 있다.The target pixel value calculator may increase a value of a weighting factor associated with a pixel value of a histogram equalized pixel corresponding to the target pixel when the target pixel is included in the first boundary. When not included in the boundary, the value of the weight factor related to the weight and the weighted pixel value may be increased.

다른 일 측에 따른 이미지 데이터에 포함된 모션 블러를 처리하는 이미지 프로세싱 방법은 한 번의 촬영으로 제1 이미지와 제2 이미지를 획득하는 단계; 상기 히스토그램 등화된 제1 이미지에 포함된 제1 경계를 추출하고, 상기 제2 이미지에 포함된 제2 경계를 추출하는 단계; 및 상기 제1 경계와 상기 제2 경계에 기초하여 상기 모션 블러 영역을 획득하는 단계; 및 상기 제1 이미지, 상기 제2 이미지, 및 상기 모션 블러 영역에 기초하여 복원 이미지를 생성하는 단계를 포함하고, 상기 제1 이미지를 위한 제1 노출 시간은 상기 제2 이미지를 위한 제2 노출 시간보다 짧다.According to another aspect, an image processing method for processing motion blur included in image data may include obtaining a first image and a second image by one shot; Extracting a first boundary included in the histogram equalized first image and extracting a second boundary included in the second image; And obtaining the motion blur area based on the first boundary and the second boundary. And generating a reconstructed image based on the first image, the second image, and the motion blur region, wherein the first exposure time for the first image is a second exposure time for the second image. Shorter than

이 때, 상기 모션 블러 영역을 획득하는 단계는 상기 제1 경계와 상기 제2 경계를 포함하는 제3 경계를 생성하는 단계; 및 OR 연산과 AND 연산을 이용하는 단순 패쇄 경로 영역 마스킹 기법에 따라, 상기 제3 경계에 둘러싸인 영역을 포함하는 상기 모션 블러 영역을 생성하는 단계를 포함할 수 있다.In this case, the obtaining of the motion blur region may include generating a third boundary including the first boundary and the second boundary; And generating the motion blur region including the region surrounded by the third boundary according to a simple blockage path region masking technique using an OR operation and an AND operation.

또한, 상기 복원 이미지를 생성하는 단계는 상기 모션 블러 영역에 포함되는 복수의 픽셀들을 제안된 웨이티드 컬러 인터폴레이션 기법에 따라서 모션 디블러링 함으로써 상기 복원 이미지를 생성할 수 있다.In the generating of the reconstructed image, the reconstructed image may be generated by motion deblocking a plurality of pixels included in the motion blur region according to a proposed weighted color interpolation technique.

또한, 상기 복원 이미지를 생성하는 단계는 상기 모션 블러 영역에 포함되는 대상 픽셀을 모션 디블러링 하기 위해 참조되는 복수의 참조 픽셀들을 상기 모션 블러 영역에 포함되지 않는 복수의 픽셀들로부터 추출하는 단계; 상기 대상 픽셀과 상기 복수의 참조 픽셀들 각각 사이의 거리에 기초하여 상기 복수의 참조 픽셀들 각각의 가중치를 계산하는 단계; 상기 제2 이미지에 포함된 복수의 픽셀들 중 상기 복수의 참조 픽셀들 각각에 대응되는 픽셀의 픽셀값과 상기 가중치에 기초하여 상기 복수의 참조 픽셀들 각각의 가중 픽셀값을 계산하는 단계; 및 상기 제1 이미지에 포함된 복수의 픽셀들 중 상기 대상 픽셀에 대응되는 히스토그램 등화된 픽셀의 픽셀값, 상기 가중치, 및 상기 가중 픽셀값에 기초하여 상기 대상 픽셀의 픽셀값을 계산하는 단계를 포함할 수 있다.The generating of the reconstructed image may include extracting, from a plurality of pixels not included in the motion blur region, a plurality of reference pixels which are referred to for motion blurring a target pixel included in the motion blur region; Calculating weights of each of the plurality of reference pixels based on a distance between the target pixel and each of the plurality of reference pixels; Calculating a weighted pixel value of each of the plurality of reference pixels based on a pixel value of the pixel corresponding to each of the plurality of reference pixels among the plurality of pixels included in the second image and the weight; And calculating a pixel value of the target pixel based on the pixel value, the weight, and the weighted pixel value of the histogram equalized pixel corresponding to the target pixel among the plurality of pixels included in the first image. can do.

또한, 상기 대상 픽셀의 픽셀값을 계산하는 단계는 상기 대상 픽셀이 상기 제1 경계에 포함되는 경우 상기 대상 픽셀에 대응되는 히스토그램 등화된 픽셀의 픽셀값과 관련된 가중치 인자의 값을 증가시키고, 상기 대상 픽셀이 상기 제1 경계에 포함되지 않는 경우 상기 가중치 및 상기 가중 픽셀값과 관련된 가중치 인자의 값을 증가시킬 수 있다.
The calculating of the pixel value of the target pixel may include increasing a value of a weighting factor related to the pixel value of the histogram equalized pixel corresponding to the target pixel when the target pixel is included in the first boundary. When the pixel is not included in the first boundary, a value of the weight factor related to the weight and the weighted pixel value may be increased.

도 1a는 일 실시예에 따른 이미지에 포함된 모션 블러를 처리하는 이미지 프로세싱 장치를 나타낸 블록도.
도 1b는 일 실시예에 따른 이미지 복원부의 동작을 설명하기 위한 그래프.
도 1c는 일 실시예에 따른 한번의 촬영으로 두 장의 이미지를 얻는 동작을 설명하기 위한 도면
도 2는 일 실시예에 따른 이미지 촬영부의 동작을 설명하기 위한 그래프.
도 3은 일 실시예에 따른 모션 블러 영역을 설명하기 위한 도면.
도 4는 일 실시예에 따른 단순 패쇄 경로 영역 마스킹 기법을 설명하기 위한 도면.
도 5는 일 실시예에 따른 이미지에 포함된 모션 블러를 처리하는 이미지 프로세싱 방법을 나타낸 동작 흐름도.
도 6a와 도 6b는 일 실시예에 따른 이미지 프로세싱 장치의 반응 속도를 설명하기 위한 도면.
도 7은 일 실시예에 따른 이미지 프로세싱 장치에 의해 모션 블러가 처리된 결과를 설명하기 위한 도면.
1A is a block diagram illustrating an image processing apparatus for processing motion blur included in an image, according to an exemplary embodiment.
1B is a graph for describing an operation of an image reconstruction unit according to an embodiment.
1C is a diagram for describing an operation of obtaining two images by one shooting, according to an exemplary embodiment.
2 is a graph illustrating an operation of an image capturing unit according to an exemplary embodiment.
3 is a diagram for describing a motion blur region according to an exemplary embodiment.
4 is a diagram for describing a simple blockage path area masking technique, according to an exemplary embodiment.
5 is an operation flowchart illustrating an image processing method of processing motion blur included in an image according to an exemplary embodiment.
6A and 6B are diagrams for describing a reaction speed of an image processing apparatus according to an embodiment.
7 is a diagram for describing a result of motion blur processed by an image processing apparatus according to an exemplary embodiment.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 따른 이미지에 포함된 모션 블러(motion blur)를 처리하는 이미지 프로세싱 장치를 나타낸 블록도이다.1 is a block diagram illustrating an image processing apparatus for processing a motion blur included in an image according to an exemplary embodiment.

도 1을 참조하면, 일 실시예에 따른 이미지 프로세싱 장치(100)는 이미지 촬영부(110), 모션 블러 영역 검출부(120), 및 이미지 복원부(130)를 포함한다.Referring to FIG. 1, an image processing apparatus 100 according to an embodiment includes an image capturing unit 110, a motion blur region detecting unit 120, and an image reconstructing unit 130.

일 실시예에 따른 이미지 촬영부(110)는 한 번의 촬영으로 제1 이미지와 제2 이미지를 획득할 수 있다. 도 1c는 한번의 촬영으로 제 1이미지(160)와 제 2 이미지(170)를 획득하는 이미지 촬영부(110)의 동작을 보여준다.The image capturing unit 110 according to an exemplary embodiment may acquire the first image and the second image by one shot. FIG. 1C illustrates an operation of the image capturing unit 110 for acquiring the first image 160 and the second image 170 in one shot.

보다 구체적으로, 이미지 촬영부(110)는 이미지 생성부(111)를 포함할 수 있다. 이미지 생성부(111)는 제1 노출 시간에 기초하여 제1 이미지(160)를 생성하고, 제2 노출 시간에 기초하여 제2 이미지(170)를 생성할 수 있다. 여기서, 제1 노출 시간과 제2 노출 시간 각각은 촬영을 위해 이미지 센서가 빛에 노출되는 시간으로, 제1 노출 시간은 제2 노출시간보다 짧을 수 있다. More specifically, the image capturing unit 110 may include an image generating unit 111. The image generator 111 may generate the first image 160 based on the first exposure time, and generate the second image 170 based on the second exposure time. Here, each of the first exposure time and the second exposure time is a time when the image sensor is exposed to light for capturing, and the first exposure time may be shorter than the second exposure time.

이 경우, 제1 이미지(160)는 제2 이미지(170)에 비하여 노이즈를 많이 포함하고 어두운 대신 모션 블러를 거의 포함하지 않을 수 있다. 반면, 제2 이미지(170)는 제1 이미지(160)에 비하여 모션 블러를 많이 포함하는 대신 시그널-노이즈 비율(Signal-to-Noise Ratio; SNR)이 좋고 밝을 수 있다. 한 번의 촬영으로 제1 이미지(160)와 제2 이미지(170)를 획득하는 이미지 생성부(111)와 관련된 보다 상세한 사항은 도 2를 참조하여 후술한다.In this case, the first image 160 may include more noise than the second image 170 and may include little motion blur instead of dark. On the other hand, the second image 170 may have a good signal-to-noise ratio (SNR) and may be brighter, instead of including more motion blur than the first image 160. More details related to the image generating unit 111 which acquires the first image 160 and the second image 170 by one shooting will be described later with reference to FIG. 2.

즉, 일 실시예에 따른 이미지 프로세싱 장치(100)는 모션 디블러링(motion debluring)을 위하여, 모션 블러를 거의 포함하지 않는 제1 이미지로부터 형태 정보를 추출하고, 밝고 SNR이 좋은 제2 이미지로부터 색상 정보를 추출할 수 있다.That is, the image processing apparatus 100 according to an exemplary embodiment extracts shape information from a first image including almost no motion blur for motion debluring, and extracts shape information from a second bright image having good SNR. Color information can be extracted.

여기서, 모션 디블러링은 이미지 내 모션 블러를 제거하거나 완화하는 이미지 프로세싱 기법을 포함할 수 있다. 제1 이미지로부터 형태 정보를 추출하고 제2 이미지로부터 색상 정보를 추출하는 이미지 프로세싱 장치(100)의 동작과 관련된 보다 상세한 사항은 후술한다.Here, motion deblurring may include image processing techniques to remove or mitigate motion blur in the image. More details related to the operation of the image processing apparatus 100 extracting shape information from the first image and extracting color information from the second image will be described later.

나아가, 이미지 촬영부(110)는 히스토그램 등화부(112)를 더 포함할 수 있다. 히스토그램 등화부(112)는 제1 이미지에 히스토그램 등화(equalization) 기법을 적용함으로써 제1 이미지의 밝기 개선과 명암대비를 보다 뚜렷하게 만들 수 있다. 여기서, 히스토그램 등화 기법은 제 2 이미지의 디자이어드 히스토그램(desired histogram) 정보를 참조하여 제1 이미지의 명암대비(또는 제1 이미지의 색상대비)를 조절하는 이미지 프로세싱 기법일 수 있다.In addition, the image capturing unit 110 may further include a histogram equalizer 112. The histogram equalizer 112 may improve the brightness and contrast of the first image by applying a histogram equalization technique to the first image. Here, the histogram equalization technique may be an image processing technique that adjusts the contrast (or the contrast of the first image) of the first image by referring to the histogram information of the second image.

보다 구체적으로, 히스토그램 등화부(112)는 전체적으로 어두운 제1 이미지에 포함된 복수의 픽셀들 각각의 명암을 보다 고르게 분포시킬 수 있다. 이로 인하여, 히스토그램 등화부(112)는 제1 이미지에 포함된 경계(edge)와 관련된 정보를 보다 정확하게 만들 수 있다.More specifically, the histogram equalizer 112 may more uniformly distribute the contrast of each of the plurality of pixels included in the dark first image. As a result, the histogram equalizer 112 may more accurately make information related to an edge included in the first image.

이 때, 히스토그램 등화부(112)는 제2 이미지에 기초하여(즉, 제2 이미지의 디자이어드 히스토그램 정보에 기초하여) 제1 이미지에 히스토그램 등화(equalization) 기법을 적용할 수 있다. 즉, 히스토그램 등화부(112)는 제2 이미지의 명암에 기초하여 제1 이미지에 포함된 복수의 픽셀들 각각의 명암을 보다 고르게 분포시킬 수 있다.In this case, the histogram equalizer 112 may apply a histogram equalization technique to the first image based on the second image (ie, based on the histogram information of the second image). That is, the histogram equalizer 112 may distribute the contrast of each of the plurality of pixels included in the first image evenly based on the contrast of the second image.

또한, 일 실시예에 따른 모션 블러 영역 검출부(120)는 제1 이미지와 제2 이미지에 기초하여 모션 블러가 발생된 모션 블러 영역을 검출할 수 있다. 이하, 제1 이미지는 히스토그램 등화부(112)에 의해 히스토그램 등화 기법이 적용된 결과 이미지를 지칭할 수 있다.In addition, the motion blur region detector 120 may detect the motion blur region where the motion blur is generated based on the first image and the second image. Hereinafter, the first image may refer to the resultant image to which the histogram equalization technique is applied by the histogram equalizer 112.

보다 구체적으로, 모션 블러 영역 검출부(120)는 경계 추출부(121)를 포함할 수 있다. 경계 추출부(121)는 제1 이미지에 포함된 제1 경계를 추출하고, 제2 이미지에 포함된 제2 경계를 추출할 수 있다.More specifically, the motion blur region detector 120 may include a boundary extractor 121. The boundary extractor 121 extracts a first boundary included in the first image and extracts a second boundary included in the second image.

경계 추출부(121)는 제1 이미지와 제2 이미지 각각에 스레시홀딩(thresholding) 기법을 적용함으로써 제1 경계와 제2 경계를 추출할 수 있다. 여기서, 스레시홀딩 기법은 이미지 내 복수의 픽셀들 각각이 가지는 픽셀값을 특정 문턱값을 비교한 결과에 따라 복수의 픽셀들을 분할(segmentation)하는 이미지 프로세싱 기법이다.The boundary extractor 121 may extract the first boundary and the second boundary by applying a thresholding technique to each of the first image and the second image. Here, the threshold holding technique is an image processing technique of segmenting a plurality of pixels according to a result of comparing a specific threshold value of a pixel value of each of the plurality of pixels in an image.

예를 들면, 경계 추출부(121)는 복수의 픽셀들 각각이 가지는 픽셀값이 특정 문턱값보다 큰 경우 해당 픽셀을 '1'로 분류할 수 있다. 또한, 경계 추출부(121)는 특정 문턱값보다 작은 픽셀들을 '0'으로 분류할 수 있다. 즉, 경계 추출부(121)는 이미지 내 복수의 픽셀들을 이원화시킴으로써 경계에 해당하는 픽셀들(이 경우, '1'로 분류된 픽셀들)을 추출할 수 있다.For example, the boundary extractor 121 may classify the pixel as '1' when the pixel value of each of the plurality of pixels is larger than a specific threshold value. In addition, the boundary extractor 121 may classify pixels smaller than a specific threshold value as '0'. That is, the boundary extractor 121 may extract pixels corresponding to the boundary (in this case, pixels classified as '1') by dualizing a plurality of pixels in the image.

보다 구체적으로, 도면에 표시되지 아니하였으나, 경계 추출부(121)는 문턱값 결정부와 경계 생성부를 포함할 수 있다.More specifically, although not shown in the drawing, the boundary extractor 121 may include a threshold determiner and a boundary generator.

일 실시예에 따른 문턱값 결정부는 곤잘레즈(Gonzalez) 알고리즘을 이용하여 제1 이미지를 위한 제1 문턱값과 제2 이미지를 위한 제2 문턱값을 각각 결정할 수 있다. 여기서, 곤잘레즈 알고리즘은 경계인지 여부를 판단하기 위한 문턱값을 결정하는 알고리즘으로, 해당 분야에서 통상의 지식을 가진 자라면 곤잘레즈 알고리즘을 명확하게 이해할 수 있는 바, 보다 상세한 설명은 생략한다.According to an exemplary embodiment, the threshold determiner may determine a first threshold value for the first image and a second threshold value for the second image by using a Gonzalez algorithm. Here, the Gonzales algorithm is an algorithm for determining a threshold value for determining whether the boundary, and a person skilled in the art can clearly understand the Gonzales algorithm, and thus a detailed description thereof will be omitted.

일 실시예에 따른 경계 생성부는 제1 이미지와 제2 이미지 각각에 소발 오퍼레이터(Sobal operator)를 적용함으로써 제1 픽셀값들과 제2 픽셀값들을 획득할 수 있다. 여기서, 소발 오퍼레이터는 이미지의 경계 정보를 얻기 위해 사용되는 기본적으로 사용되는 것으로서, 해당 분야에서 통상의 지식을 가진 자라면 소발 오퍼레이터를 명확하게 이해할 수 있는 바, 보다 상세한 설명은 생략한다.The boundary generator according to an exemplary embodiment may obtain first pixel values and second pixel values by applying a Sobal operator to each of the first image and the second image. Here, the hair removal operator is basically used to obtain boundary information of an image, and a person having ordinary knowledge in the art can clearly understand the hair removal operator, and thus a detailed description thereof will be omitted.

경계 생성부는 제1 픽셀값들 각각을 제1 경계와 비교함으로써 제1 경계를 생성하고, 제2 픽셀값들 각각을 제2 경계와 비교함으로써 제2 경계를 생성할 수 있다.The boundary generator may generate the first boundary by comparing each of the first pixel values with the first boundary, and generate the second boundary by comparing each of the second pixel values with the second boundary.

이 때, 전술한 바와 같이 제1 경계와 제2 경계 각각은 이진화된 이미지를 포함할 수 있다. 예를 들면, 제1 경계와 제2 경계 각각은 '0'과 '1'로 구성된 이진화된 이미지일 수 있고, 이진화된 이미지 내 '1'의 값을 갖는 픽셀들의 집합이 경계를 나타낼 수 있다.In this case, as described above, each of the first boundary and the second boundary may include a binarized image. For example, each of the first boundary and the second boundary may be a binarized image composed of '0' and '1', and a set of pixels having a value of '1' in the binarized image may represent the boundary.

나아가, 모션 블러 영역 검출부(120)는 모션 블러 영역 획득부(122)를 더 포함할 수 있다. 모션 블러 영역 획득부(122)는 제1 경계와 제2 경계에 기초하여 모션 블러 영역을 획득할 수 있다. 여기서, 모션 블러 영역은 이미지 내 모션 블러가 발생된 영역으로, 추후 모션 디블러링이 적용될 영역일 수 있다.In addition, the motion blur region detector 120 may further include a motion blur region acquirer 122. The motion blur region acquirer 122 may obtain a motion blur region based on the first boundary and the second boundary. Here, the motion blur region is a region in which motion blur is generated in the image and may be a region to which motion blur is applied later.

즉, 일 실시예에 따른 이미지 프로세싱 장치(100)는 제1 이미지와 제2 이미지로부터 획득된 제1 경계와 제2 경계를 이용하여 모션 디블러링을 적용할 영역(즉, 모션 블러 영역)을 한정함으로써, 이미지 복원을 위한 연산량을 감소시킬 수 있다.That is, the image processing apparatus 100 according to an embodiment may determine an area (ie, a motion blur area) to which motion deblurring is to be applied using the first boundary and the second boundary obtained from the first image and the second image. By limiting, the amount of computation for image reconstruction can be reduced.

예를 들면, 모션 블러된 이미지에서 눈에 거슬리고 이미지의 질을 크게 저하시키는 부분은 경계 주변-예를 들면, 고 주파수 성분들(high frequency details)-에 형성될 수 있다. 이미지의 부드러운 영역(즉, 경계 주변을 제외한 영역)에서 발생된 모션 블러는 이미지의 질에 거의 영향을 미치지 아니한다. 따라서, 일 실시예에 따른 이미지 프로세싱 장치(100)는 모션 디블러링을 적용할 영역을 경계 주변으로 한정함으로써, 연산량 대비 복원된 이미지의 질을 최적화시키는 기술을 제공할 수 있다.For example, an unobtrusive part of the motion blurred image that greatly degrades the quality of the image may be formed around the boundary—eg, high frequency details. Motion blur generated in soft areas of the image (ie, areas other than the perimeter of the boundary) has little effect on the quality of the image. Accordingly, the image processing apparatus 100 according to an exemplary embodiment may provide a technique of optimizing the quality of the reconstructed image relative to the amount of calculation by limiting an area to which motion deblurring is to be applied around the boundary.

보다 구체적으로, 도면에 표시되지 아니하였으나, 모션 블러 영역 획득부(122)는 경계 생성부와 모션 블러 영역 생성부를 포함할 수 있다.More specifically, although not shown in the drawing, the motion blur region acquirer 122 may include a boundary generator and a motion blur region generator.

경계 생성부는 제1 경계와 제2 경계를 포함하는 제3 경계를 생성할 수 있다. 전술한 바와 같이, 사람의 눈은 경계 주변에 형성된 모션 블러에 민감하므로, 경계 생성부는 제 1 경계와 제 1경계로부터 모션에 의해 생성된 제 2 경계를 포함하고 제 1경계로부터 제 2 경계까지의 무브먼트(movement) 영역인 제3 경계를 생성할 수 있다.The boundary generator may generate a third boundary including the first boundary and the second boundary. As described above, the human eye is sensitive to motion blur formed around the boundary, so that the boundary generating portion includes the first boundary and the second boundary generated by the motion from the first boundary and from the first boundary to the second boundary. A third boundary, which is a movement region, may be generated.

모션 블러 영역 생성부는 단순 패쇄 경로 마스킹(simple closed path masking) 기법에 따라, 제3 경계에 둘러싸인 영역을 포함하는 모션 블러 영역을 생성할 수 있다. 즉, 모션 블러 영역 생성부는 제3 경계에 둘러싸인 영역이 모션 블러 영역에 포함될 수 있다. 단순 패쇄 경로 마스킹 기법과 관련된 보다 상세한 사항은 도 4를 참조하여 후술한다.The motion blur region generator may generate a motion blur region including a region surrounded by a third boundary according to a simple closed path masking technique. That is, the motion blur region generator may include the region surrounded by the third boundary in the motion blur region. More details related to the simple closed path masking technique are described below with reference to FIG. 4.

다시 말하면, 모션 블러 영역 획득부(122)는 모션 블러 영역을 획득하기 위하여 경계 추출부(121)에 의해 추출된 제1 경계와 제2 경계를 합치고, 그 합쳐진 결과(즉, 제3 경계)에 의해 둘러싸인 영역까지 모션 블러 영역으로 포함시킬 수 있다.In other words, the motion blur region obtaining unit 122 merges the first boundary and the second boundary extracted by the boundary extracting unit 121 to obtain the motion blur region, and adds the result to the combined result (that is, the third boundary). The area surrounded by the motion blur may be included.

또한, 일 실시예에 따른 이미지 복원부(130)는 제1 이미지, 제2 이미지, 및 모션 블러 영역에 기초하여 복원 이미지를 생성할 수 있다.In addition, the image reconstructor 130 may generate a reconstructed image based on the first image, the second image, and the motion blur area.

이미지 복원부(130)는 복원 이미지를 생성하기 위하여, 제2 이미지에 기초하여 모션 블러 영역에 포함되지 않는 복수의 픽셀들 각각의 픽셀값을 설정할 수 있다. 즉, 이미지 복원부(130)는 제2 이미지로부터 추출된 색상 정보를 이용하여 모션 블러 영역에 포함되지 않는 복수의 픽셀들 각각의 픽셀값을 설정할 수 있다.The image reconstructor 130 may set pixel values of each of the plurality of pixels not included in the motion blur region based on the second image to generate the reconstructed image. That is, the image reconstructor 130 may set pixel values of each of the plurality of pixels not included in the motion blur area by using color information extracted from the second image.

나아가, 이미지 복원부(130)는 모션 블러 영역에 포함되는 복수의 픽셀들을 모션 디블러링 함으로써 복원 이미지를 생성할 수 있다. 이미지 복원부(130)는 모션 블러 영역을 모션 디블러링 하기 위하여 제1 이미지, 제2 이미지를 이용할 수 있다.In addition, the image reconstructor 130 may generate a reconstructed image by motion deblocking a plurality of pixels included in the motion blur region. The image reconstructor 130 may use the first image and the second image to motion blur the motion blur region.

이 때, 이미지 복원부(130)는 모션 블러 영역을 두 개의 영역으로 분할할 수 있다. 예를 들어, 도 1b를 참조하면, 이미지(140)는 모션 블러 영역(143, 145, 147)과 그 외의 영역(141, 149)를 포함한다. 이미지 복원부(130)는 모션 블러 영역(143, 145, 147)을 경계 영역(145)과 블러 영역(143, 147)으로 구분할 수 있다. 여기서, 경계 영역(145)은 제1 이미지로부터 추출된 제1 경계이고, 블러 영역(143, 147)은 모션 블러 영역 중 경계 영역을 제외한 나머지 영역일 수 있다.In this case, the image reconstructor 130 may divide the motion blur region into two regions. For example, referring to FIG. 1B, the image 140 includes motion blur regions 143, 145, 147 and other regions 141, 149. The image reconstructor 130 may divide the motion blur regions 143, 145, and 147 into the boundary region 145 and the blur regions 143 and 147. Here, the boundary area 145 may be a first boundary extracted from the first image, and the blur areas 143 and 147 may be remaining areas except the boundary area among the motion blur areas.

이미지 복원부(130)는 블러 영역(143)을 모션 디블러링 하기 위하여 모션 블러가 발생되지 아니한 근처 영역(141)을 활용할 수 있다. 즉, 이미지 복원부(130)는 블러 영역(143)에 포함된 픽셀(144)의 픽셀값을 설정할 때, 이미지 내 모션 블러 영역에 속하지 아니한 근처 픽셀(142)의 색상 정보를 참조할 수 있다. 이 때, 픽셀(142)의 색상 정보는 제2 이미지로부터 획득할 수 있다.The image reconstructor 130 may utilize the neighboring region 141 where no motion blur has been generated to motion blur the blur region 143. That is, when setting the pixel value of the pixel 144 included in the blur area 143, the image reconstructor 130 may refer to color information of the adjacent pixel 142 that does not belong to the motion blur area in the image. In this case, color information of the pixel 142 may be obtained from the second image.

마찬가지로, 이미지 복원부(130)는 블러 영역(147)을 모션 디블러링 하기 위하여 모션 블러가 발생되지 아니한 근처 영역(149)을 활용할 수 있다. 즉, 이미지 복원부(130)는 블러 영역(147)에 포함된 픽셀(148)의 픽셀값을 설정할 때, 이미지 내 모션 블러 영역에 속하지 아니한 근처 픽셀(150)의 색상 정보를 참조할 수 있다. 이 때, 픽셀(150)의 색상 정보는 제2 이미지로부터 획득할 수 있다.Similarly, the image reconstructor 130 may utilize the neighboring region 149 where no motion blur is generated to motion blur the blur region 147. That is, when setting the pixel value of the pixel 148 included in the blur area 147, the image reconstructor 130 may refer to color information of the neighboring pixel 150 that does not belong to the motion blur area in the image. In this case, color information of the pixel 150 may be obtained from the second image.

나아가, 이미지 복원부(130)는 경계 영역(145)을 모션 디블러링 하기 위하여 제1 이미지를 이용할 수 있다. 즉, 이미지 복원부(130)는 경계 영역(145)에 포함된 픽셀(146)의 픽셀값을 설정할 때, 모션 블러 영역에 속하지 아니한 근처 유효 참조 픽셀들(142, 150)의 색상 정보와 함께 픽셀(146) 자신의 색상 정보를 이용할 수 있다. 이 때, 픽셀(146)은 급격히 변하는 영역(sharply changed region)-즉, 고 주파수 영역(high frequency region)-이기 때문에 근처 유효 참조 픽셀 색상 정보보다 히스토그램 등화된(histogram equalized) 자신의 색상 정보에 큰 가중치를 두어 복원 값을 획득할 수 있다. 전술한 바와 같이 제1 이미지는 히스토그램 등화부(112)에 의해 히스토그램 등화 기법이 적용된 이미지일 수 있다.Furthermore, the image reconstructor 130 may use the first image to motion blur the boundary region 145. That is, when the image reconstructor 130 sets the pixel value of the pixel 146 included in the boundary area 145, the image restoring unit 130 includes the pixel together with the color information of the near valid reference pixels 142 and 150 that do not belong to the motion blur area. 146 can use its own color information. At this time, since the pixel 146 is a sharply changed region, that is, a high frequency region, the pixel 146 has a larger histogram equalized than its neighboring effective reference pixel color information. The restoration value may be obtained by giving a weight. As described above, the first image may be an image to which the histogram equalization technique is applied by the histogram equalizer 112.

보다 구체적으로, 도면에 도시되지는 아니하였으나, 이미지 복원부(130)는 참조 픽셀 추출부, 가중치 계산부, 가중 픽셀값 계산부, 및 대상 픽셀값 계산부를 포함할 수 있다.More specifically, although not shown in the drawing, the image reconstructor 130 may include a reference pixel extractor, a weight calculator, a weighted pixel value calculator, and a target pixel value calculator.

참조 픽셀 추출부는 모션 블러 영역에 포함되는 대상 픽셀을 모션 디블러링 하기 위해 참조되는 복수의 참조 픽셀들을 모션 블러 영역에 포함되지 않는 복수의 픽셀들로부터 추출할 수 있다. 예를 들면, 모션 블러 영역 내 블러 영역(147)에 포함되는 대상 픽셀(148)을 모션 디블러링 하기 위해 참조되는 참조 픽셀(150)을 모션 블러 영역이 아닌 영역(149)으로부터 추출할 수 있다. 이 때, 참조 픽셀(150)은 복수일 수 있다.The reference pixel extractor may extract a plurality of reference pixels, which are referred to for motion blurring a target pixel included in the motion blur region, from a plurality of pixels not included in the motion blur region. For example, the reference pixel 150 referred to for motion debluring the target pixel 148 included in the blur area 147 in the motion blur area may be extracted from the area 149 rather than the motion blur area. . In this case, the reference pixel 150 may be plural.

가중치 계산부는 대상 픽셀과 복수의 참조 픽셀들 각각 사이의 거리에 기초하여 복수의 참조 픽셀들 각각의 가중치(weight)를 계산할 수 있다. 나아가, 가중치 계산부는 수학식 1을 이용하여 복수의 참조 픽셀들 각각의 가중치의 총 합 WT(i,j)를 계산할 수 있다.
The weight calculator may calculate a weight of each of the plurality of reference pixels based on a distance between the target pixel and each of the plurality of reference pixels. Furthermore, the weight calculator may calculate the total sum W T (i, j) of the weights of the plurality of reference pixels using Equation 1.

Figure pat00001
Figure pat00001

여기서, (i, j)는 참조 픽셀 추출부에 의해 추출된 참조 픽셀의 좌표이다. 예를 들면, (i, j)는 대상 픽셀을 기준으로 한 참조 픽셀의 상대 좌표일 수 있다. i2은 대상 픽셀과 참조 픽셀 사이의 x축 픽셀 거리의 제곱일 수 있다. 마찬가지로, j2은 대상 픽셀과 참조 픽셀 사이의 y축 픽셀 거리의 제곱일 수 있다. C1는 가중치 인자로, 상수일 수 있다.Here, (i, j) are coordinates of the reference pixel extracted by the reference pixel extracting unit. For example, (i, j) may be relative coordinates of the reference pixel with reference to the target pixel. i 2 may be the square of the x-axis pixel distance between the target pixel and the reference pixel. Similarly, j 2 may be the square of the y-axis pixel distance between the target pixel and the reference pixel. C 1 is a weighting factor and may be a constant.

가중치 계산부는 상수인 C1에서 대상 픽셀과 참조 픽셀 사이의 거리의 제곱에 비례하는 값을 차감함으로써 대상 픽셀로부터 참조 픽셀까지의 맨하탄 디스턴스(Manhattan distance)에 따라 참조 픽셀의 가중치를 계산할 수 있다. 따라서, 가중치 계산부는 참조 픽셀이 대상 픽셀과 더 가까이 있을수록 더 큰 가중치를 줄 수 있다.The weight calculator may calculate a weight of the reference pixel according to a Manhattan distance from the target pixel to the reference pixel by subtracting a value proportional to the square of the distance between the target pixel and the reference pixel from the constant C 1 . Therefore, the closer the reference pixel is to the target pixel, the greater the weight calculation unit may give.

가중 픽셀값 계산부는 제2 이미지에 포함된 복수의 픽셀들 중 복수의 참조 픽셀들 각각에 대응되는 픽셀의 픽셀값과 가중치에 기초하여 복수의 참조 픽셀들 각각의 가중 픽셀값을 계산할 수 있다. 예를 들면, 가중 픽셀값 계산부는 제2 이미지에 포함된 복수의 픽셀들 중 참조 픽셀(150)에 대응되는 픽셀의 픽셀값(즉, 색상 정보)과 참조 픽셀(150)의 가중치에 기초하여 참조 픽셀(150)의 가중 픽셀값을 계산할 수 있다.The weighted pixel value calculator may calculate a weighted pixel value of each of the plurality of reference pixels based on a pixel value and a weight of a pixel corresponding to each of the plurality of reference pixels among the plurality of pixels included in the second image. For example, the weighted pixel value calculator may refer to the pixel based on the pixel value (ie, color information) of the pixel corresponding to the reference pixel 150 among the plurality of pixels included in the second image and the weight of the reference pixel 150. The weighted pixel value of the pixel 150 may be calculated.

가중 픽셀값 계산부는 참조 픽셀의 가중 픽셀값을 계산하기 위하여, 제2 이미지 내 참조 픽셀에 대응되는 픽셀의 픽셀값과 참조 픽셀의 가중치를 곱할 수 있다. 이 때, 가중 픽셀값 계산부는 곱셈 연산을 시프트(shift) 연산으로 근사함으로써 연산량을 감소시킬 수 있다. 나아가, 가중 픽셀값 계산부는 수학식 2를 이용하여 복수의 참조 픽셀들 각각의 가중 픽셀값의 총 합 ST(i,j)를 계산할 수 있다.
The weighted pixel value calculator may multiply the pixel value of the pixel corresponding to the reference pixel in the second image by the weight of the reference pixel to calculate the weighted pixel value of the reference pixel. In this case, the weighted pixel value calculator may reduce the amount of calculation by approximating a multiplication operation to a shift operation. Furthermore, the weighted pixel value calculator may calculate the total sum S T (i, j) of the weighted pixel values of each of the plurality of reference pixels using Equation 2.

Figure pat00002
Figure pat00002

여기서, (i, j)는 참조 픽셀 추출부에 의해 추출된 참조 픽셀의 좌표이다. 예를 들면, (i, j)는 대상 픽셀을 기준으로 한 참조 픽셀의 상대 좌표일 수 있다. VNEI(i,j)는 제2 이미지 내 (i, j) 좌표의 모션 블러 영역에 포함 되지 않는 픽셀의 유효 참조 픽셀값일 수 있다.Here, (i, j) are coordinates of the reference pixel extracted by the reference pixel extracting unit. For example, (i, j) may be relative coordinates of the reference pixel with reference to the target pixel. VNEI (i, j) may be an effective reference pixel value of a pixel not included in the motion blur region of the (i, j) coordinate in the second image.

대상 픽셀값 계산부는 제1 이미지에 포함된 복수의 픽셀들 중 대상 픽셀에 대응되는 픽셀의 픽셀값, 참조 픽셀의 가중치, 및 참조 픽셀의 가중 픽셀값에 기초하여 대상 픽셀의 픽셀값을 계산할 수 있다.The target pixel value calculator may calculate the pixel value of the target pixel based on the pixel value of the pixel corresponding to the target pixel among the plurality of pixels included in the first image, the weight of the reference pixel, and the weighted pixel value of the reference pixel. .

보다 구체적으로, 대상 픽셀값 계산부는 가중치 계산부에 의해 계산된 가중치들의 총 합과 가중 픽셀값 계산부에 의해 계산된 가중 픽셀값들의 총 합을 이용하여 평균 가중 픽셀값을 계산할 수 있다. 대상 픽셀값 계산부는 대상 픽셀의 픽셀값을 계산하기 위하여, 평균 가중 픽셀값뿐 아니라, 제1 이미지 내 대상 픽셀의 좌표에 대응되는 픽셀의 픽셀값도 이용할 수 있다.
More specifically, the target pixel value calculator may calculate the average weighted pixel value using the total sum of the weights calculated by the weight calculator and the total sum of the weighted pixel values calculated by the weighted pixel value calculator. The target pixel value calculator may use not only the average weighted pixel value but also the pixel value of the pixel corresponding to the coordinate of the target pixel in the first image to calculate the pixel value of the target pixel.

Figure pat00003
Figure pat00003

여기서,

Figure pat00004
는 평균 가중 픽셀값이고, HSEI는 제1 이미지 내 대상 픽셀의 좌표에 대응되는 히스토그램 등화된 픽셀의 픽셀값일 수 있다. C2와 C3는 각각 평균 가중 픽셀값의 가중치 인자와 제1 이미지 내 대상 픽셀의 좌표에 대응되는 픽셀의 픽셀값의 가중치 인자일 수 있다.here,
Figure pat00004
Is an average weighted pixel value, and HSEI may be a pixel value of a histogram equalized pixel corresponding to the coordinate of the target pixel in the first image. C 2 and C 3 may each be a weighting factor of the average weighted pixel value and a weighting factor of the pixel value of the pixel corresponding to the coordinate of the target pixel in the first image.

이 때, 대상 픽셀값 계산부는 대상 픽셀이 제1 경계에 포함되는 경우(즉, 경계 영역에 포함되는 경우) 대상 픽셀에 대응되는 픽셀의 픽셀값과 관련된 가중치 인자(C3)의 값을 증가시킬 수 있다. 대상 픽셀값 계산부는 대상 픽셀이 제1 경계에 포함되지 않는 경우(즉, 블러 영역에 포함되는 경우) 가중치 및 가중 픽셀값과 관련된 가중치 인자(C2)의 값을 증가시킬 수 있다.
In this case, the target pixel value calculator may increase the value of the weighting factor C 3 associated with the pixel value of the pixel corresponding to the target pixel when the target pixel is included in the first boundary (ie, included in the boundary region). Can be. The target pixel value calculator may increase a value of the weight factor C 2 related to the weight and the weighted pixel value when the target pixel is not included in the first boundary (ie, included in the blur area).

도 2는 일 실시예에 따른 이미지 촬영부의 동작을 설명하기 위한 그래프이다.2 is a graph for describing an operation of an image photographing unit according to an exemplary embodiment.

도 2를 참조하면, 일 실시예에 따른 이미지 촬영부는 한 번의 촬영으로 제1 이미지와 제2 이미지를 생성할 수 있다. 도 2의 x축은 시간이고, y축은 이미지 센서에 축적된 광전하의 양(또는, 이미지 센서에 의해 흐를 수 있는 광전류의 양)일 수 있다.Referring to FIG. 2, the image photographing unit may generate the first image and the second image by one photographing. The x-axis of FIG. 2 is time, and the y-axis may be the amount of photocharge accumulated in the image sensor (or the amount of photocurrent that may flow by the image sensor).

전술한 바와 같이, 제1 이미지는 제1 노출 시간(210)에 기초하여 생성되고, 제2 이미지는 제2 노출 시간(220)에 기초하여 생성될 수 있다. 이 때, 이미지 촬영부는 제2 이미지를 획득하기 위해 이미지 센서를 빛에 노출하는 중간에 제1 이미지를 획득할 수 있다.As described above, the first image may be generated based on the first exposure time 210, and the second image may be generated based on the second exposure time 220. In this case, the image capturing unit may acquire the first image in the middle of exposing the image sensor to light in order to acquire the second image.

이 때, 제2 노출 시간(220)은 충분한 화소의 이미지를 생성하는 데 필요한 양의 빛을 입력 받는 데 걸리는 시간으로 설정될 수 있다. 이 때, 제2 노출 시간(220)은 촬영 환경에 따라 자동으로 변경될 수 있다. In this case, the second exposure time 220 may be set to a time taken to receive an amount of light required to generate an image of a sufficient pixel. In this case, the second exposure time 220 may be automatically changed according to the shooting environment.

예를 들면, 밝은 환경에서는 특정 품질의 이미지를 생성하기 위해 필요한 양의 빛을 빠르게 입력 받을 수 있다. 반면, 어두운 환경에서는 동일한 품질의 이미지를 생성하기 위해 필요한 양의 빛을 입력 받는데 더 오랜 시간이 요구될 수 있다. 따라서, 밝은 환경에서의 제2 노출 시간은 어두운 환경에서의 제2 노출 시간에 비하여 짧게 설정될 수 있다.In bright environments, for example, you can quickly receive the amount of light needed to produce a certain quality image. In dark environments, on the other hand, it may take longer to receive the amount of light required to produce the same quality image. Therefore, the second exposure time in the bright environment can be set shorter than the second exposure time in the dark environment.

다른 실시예에 따르면, 제2 노출 시간(220)은 모션 디블러링 장치의 동작 모드에 따라 수동으로 변경될 수 있다.According to another embodiment, the second exposure time 220 may be manually changed according to the operation mode of the motion deblurring device.

한편, 제1 노출 시간(210)은 노이즈를 많이 포함하고 어둡지만 모션 블러가 실질적으로 거의 없는 이미지를 생성하는 데 필요한 양의 빛을 입력 받는 데 걸리는 시간으로 설정될 수 있다.Meanwhile, the first exposure time 210 may be set to a time taken to receive an amount of light required to generate an image containing a lot of noise and having a dark but substantially little motion blur.

제1 노출 시간(210)도 제2 노출 시간(220)과 마찬가지로, 모션 디블러링 장치의 동작 모드에 따라 자동 또는 수동으로 변경될 수 있다.
Like the second exposure time 220, the first exposure time 210 may be automatically or manually changed according to an operation mode of the motion deblur device.

도 3은 일 실시예에 따른 모션 블러 영역을 설명하기 위한 도면이다.3 is a diagram for describing a motion blur region according to an exemplary embodiment.

도 3을 참조하면, 일 실시예에 따른 이미지 프로세싱 장치는 제1 이미지(310)와 제2 이미지(320)를 생성할 수 있다.Referring to FIG. 3, an image processing apparatus according to an embodiment may generate a first image 310 and a second image 320.

제1 이미지(310)는 제2 이미지(320)에 비하여 노이즈를 많이 포함하고 어두운 대신 모션 블러를 거의 포함하지 않을 수 있다. 반면, 제2 이미지(320)는 제1 이미지(310)에 비하여 모션 블러를 많이 포함하는 대신 SNR이 좋고 밝을 수 있다.The first image 310 may include more noise than the second image 320 and may include little motion blur instead of dark. On the other hand, the second image 320 may have a good SNR and a bright color instead of including a lot of motion blur as compared to the first image 310.

또한, 일 실시예에 따른 이미지 프로세싱 장치는 제1 이미지(310)로부터 제1 경계(330)을 추출하고, 제2 이미지(320)로부터 제2 경계(340)를 추출할 수 있다.In addition, the image processing apparatus may extract the first boundary 330 from the first image 310 and the second boundary 340 from the second image 320.

이 경우, 제1 경계(330)와 제2 경계(340) 각각은 이진화된 이미지를 포함할 수 있다. 예를 들면, 제1 경계(330)와 제2 경계(340) 각각은 '0'과 '1'로 구성된 이진화된 이미지일 수 있고, 이진화된 이미지 내 '1'의 값을 갖는 픽셀들의 집합이 경계를 나타낼 수 있다.In this case, each of the first boundary 330 and the second boundary 340 may include a binarized image. For example, each of the first boundary 330 and the second boundary 340 may be a binarized image composed of '0' and '1', and a set of pixels having a value of '1' in the binarized image may be formed. It may indicate a boundary.

또한, 일 실시예에 따른 이미지 프로세싱 장치는 제1 경계(330)와 제2 경계(340)로부터 모션 블러 영역(350)을 생성할 수 있다.In addition, the image processing apparatus according to an embodiment may generate the motion blur region 350 from the first boundary 330 and the second boundary 340.

우선, 이미지 프로세싱 장치는 제1 경계(330)와 제2 경계(340)를 모두 포함하는 제3 경계(도면 미표시)를 생성할 수 있다. 이미지 프로세싱 장치는 단순 패쇄 경로 마스킹 기법에 기초하여 제3 경계에 의하여 둘러싸이는 부분들을 검출하고, 검출된 부분들을 포함하는 모션 블러 영역(350)을 생성할 수 있다. 단순 패쇄 경로 마스킹 기법과 관련된 보다 상세한 사항은 도 4를 참조하여 후술한다.
First, the image processing apparatus may generate a third boundary (not shown) including both the first boundary 330 and the second boundary 340. The image processing apparatus may detect portions surrounded by the third boundary based on a simple blockage path masking technique, and generate a motion blur region 350 including the detected portions. More details related to the simple closed path masking technique are described below with reference to FIG. 4.

도 4는 일 실시예에 따른 단순 패쇄 경로 마스킹 기법을 설명하기 위한 도면이다.4 is a diagram for describing a simple blockade path masking technique, according to an exemplary embodiment.

도 4를 참조하면, 일 실시예에 따른 이미지 프로세싱 장치는 단순 패쇄 경로 마스킹 기법에 기초하여 모션 블러 영역을 생성할 수 있다.Referring to FIG. 4, an image processing apparatus according to an embodiment may generate a motion blur region based on a simple block path masking technique.

보다 구체적으로, 일 실시예에 따른 단순 패쇄 경로 마스킹 기법은 영역 R(490)을 모션 블러 영역에 포함시킬지 여부를 결정할 수 있다.More specifically, the simple blockade path masking technique according to an embodiment may determine whether to include the region R 490 in the motion blur region.

단순 패쇄 경로 마스킹 기법은 영역 R(490)을 기준을 8방향 모두에 모션 블러 영역에 속하는 픽셀들이 존재한다면, 영역 R(490)도 모션 블러 영역에 포함된다고 판단할 수 있다.The simple block path masking technique may determine that the region R 490 is also included in the motion blur region if there are pixels belonging to the motion blur region in all eight directions based on the region R 490.

예를 들면, 단순 패쇄 경로 마스킹 기법은 영역 R(490)을 기준으로 제1 방향(410), 제2 방향(420), 제3 방향(430), 제4 방향(440), 제5 방향(450), 제6 방향(460), 제7 방향(470), 및 제8 방향(480)에 모션 블러 영역에 속하는 픽셀이 존재하는 지 여부를 판단할 수 있다.For example, the simple blocking path masking technique may be based on the region R 490 in the first direction 410, the second direction 420, the third direction 430, the fourth direction 440, and the fifth direction ( The pixel belonging to the motion blur region may be determined in the 450, the sixth direction 460, the seventh direction 470, and the eighth direction 480.

이 때, 제1 방향(410) 내지 제8 방향(480) 각각은 미리 정해진 수(예를 들면, 2)의 영역들을 포함할 수 있다. 또한, 단순 패쇄 경로 마스킹 기법은 제1 방향(410) 내지 제8 방향(480) 각각에 포함된 미리 정해진 수(예를 들면, 2)의 영역들 중 적어도 하나의 영역이 모션 블러 영역에 속하는 경우, 해당 방향에 모션 블러 영역에 속하는 픽셀이 존재한다고 판단할 수 있다. 여기서, 단순 패쇄 경로 마스킹 기법은 특정 영역이 모션 블러 영역에 속하는 픽셀을 포함하는 경우, 해당 영역이 모션 블러 영역에 속한다고 판단할 수 있다.In this case, each of the first direction 410 to the eighth direction 480 may include a predetermined number (eg, two) regions. In addition, the simple block path masking technique may be performed when at least one of the predetermined number (eg, 2) of the regions included in each of the first direction 410 to the eighth direction 480 belongs to the motion blur region. It may be determined that a pixel belonging to the motion blur region exists in the corresponding direction. Here, in the simple block path masking technique, when a specific region includes a pixel belonging to the motion blur region, it may be determined that the corresponding region belongs to the motion blur region.

나아가, 단순 패쇄 경로 마스킹 기법은 제1 방향(410) 내지 제8 방향(480)에 모두 모션 블러 영역에 속하는 픽셀이 존재한다고 판단하는 경우, 영역 R(490)을 모션 블러 영역에 추가할 수 있다.Furthermore, when the simple block path masking technique determines that the pixels belonging to the motion blur region exist in the first direction 410 to the eighth direction 480, the region R 490 may be added to the motion blur region. .

여기서, 영역 R(490)는 복수의 픽셀들로 구성된 픽셀군일 수 있다. 예를 들면, 영역 R(490)는 n * n의 픽셀들을 포함하는 픽셀군일 수 있다. 이 경우, 제1 방향(410) 내지 제8 방향(480) 각각에 포함되는 미리 정해진 수의 영역들 또한 각각 n * n의 픽셀들을 포함하는 픽셀군일 수 있다.Here, the region R 490 may be a pixel group composed of a plurality of pixels. For example, region R 490 may be a pixel group including n * n pixels. In this case, a predetermined number of regions included in each of the first direction 410 to the eighth direction 480 may also be a pixel group including n * n pixels.

또 다른 실시예에 따르면, 단순 패쇄 경로 마스킹 기법은 OR 연산과 AND 연산을 이용하여 전술한 연산을 수행하도록 구현될 수 있다. 예를 들면, 단순 패쇄 경로 마스킹 기법은 제1 방향(410) 내지 제8 방향(480) 각각에 포함되는 미리 정해진 수의 영역들을 OR 시킬 수 있다. 그 결과, 단순 패쇄 경로 마스킹 기법은 제1 방향(410) 내지 제8 방향(480) 각각에 모션 블러 영역에 속하는 픽셀이 존재하는지 여부를 연산할 수 있다. 나아가, 단순 패쇄 경로 마스킹 기법은 제1 방향(410) 내지 제8 방향(480) 각각의 OR 연산 결과를 모두 AND 시킬 수 있다. 그 결과, 단순 패쇄 경로 마스킹 기법은 제1 방향(410) 내지 제8 방향(480)에 모두 모션 블러 영역에 속하는 픽셀이 존재하는지 여부를 연산할 수 있다.According to another embodiment, the simple block path masking technique may be implemented to perform the aforementioned operation using an OR operation and an AND operation. For example, the simple blockade path masking technique may OR the predetermined number of regions included in each of the first direction 410 to the eighth direction 480. As a result, the simple block path masking technique may calculate whether a pixel belonging to the motion blur region exists in each of the first direction 410 to the eighth direction 480. Furthermore, the simple blocking path masking technique may AND the results of the OR operations in each of the first direction 410 to the eighth direction 480. As a result, the simple block path masking technique may calculate whether pixels belonging to the motion blur region exist in the first direction 410 to the eighth direction 480.

또 다른 실시예에 따르면, 단순 패쇄 경로 마스킹 기법은 수학식 4를 이용하여 전술한 연산을 수행하도록 구현될 수 있다.
According to another embodiment, the simple block path masking technique may be implemented to perform the aforementioned operation using Equation 4.

Figure pat00005
Figure pat00005

만약,

Figure pat00006
을 기준으로
Figure pat00007
방향으로 r 영역 내에 제1 경계와 제2 경계를 모두 포함하는 영역이 존재한다면,
Figure pat00008
는 모션 블러 영역으로 포함될 수 있다. 이 때, N은 상수 값으로, 예를 들어 상, 하, 좌, 우, 및 네 방향의 대각선들을 의미하는 8일 수 있다.
if,
Figure pat00006
based on this
Figure pat00007
If there is a region in the r region that includes both the first boundary and the second boundary,
Figure pat00008
May be included as a motion blur region. In this case, N may be a constant value, for example, 8, which means diagonal lines in up, down, left, right, and four directions.

도 5는 일 실시예에 따른 이미지에 포함된 모션 블러를 처리하는 이미지 프로세싱 방법을 나타낸 동작 흐름도이다.5 is an operation flowchart illustrating an image processing method of processing motion blur included in an image according to an exemplary embodiment.

도 5를 참조하면, 이미지에 포함된 모션 블러를 처리하는 이미지 프로세싱 방법은 제1 이미지와 제2 이미지를 획득하는 단계(510), 제1 경계와 제2 경계를 추출하는 단계(520), 모션 블러 영역을 획득하는 단계(530), 및 복원 이미지를 생성하는 단계(530)을 포함할 수 있다.Referring to FIG. 5, the image processing method for processing motion blur included in an image may include obtaining 510 a first image and a second image, extracting a first boundary and a second boundary 520, and motion. Acquiring a blur area 530, and generating a reconstructed image 530.

제1 이미지와 제2 이미지를 획득하는 단계(510)는 한 번의 촬영으로 제1 이미지와 제2 이미지를 획득할 수 있다. 이 때, 제1 이미지를 위한 제1 노출 시간은 제2 이미지를 위한 제2 노출 시간보다 짧을 수 있다. 또한, 제1 경계와 제2 경계를 추출하는 단계(520)는 제1 이미지에 포함된 제1 경계를 추출하고, 제2 이미지에 포함된 제2 경계를 추출할 수 있다.Acquiring the first image and the second image 510 may acquire the first image and the second image in one shot. In this case, the first exposure time for the first image may be shorter than the second exposure time for the second image. In operation 520, the first boundary and the second boundary may be extracted, and the first boundary included in the first image may be extracted, and the second boundary included in the second image may be extracted.

또한, 모션 블러 영역을 획득하는 단계(530)는 제1 경계와 제2 경계에 기초하여 모션 블러 영역을 획득할 수 있다. 보다 구체적으로, 모션 블러 영역을 획득하는 단계(530)는 제1 경계와 제2 경계를 포함하는 제3 경계를 생성하는 단계와 OR 연산과 AND 연산을 이용하는 단순 패쇄 경로 마스킹 기법에 따라 제3 경계 및 제3 경계에 둘러싸인 영역을 포함하는 모션 블러 영역을 생성하는 단계를 포함할 수 있다.In operation 530, the motion blur region may be acquired based on the first boundary and the second boundary. More specifically, acquiring the motion blur region may include generating a third boundary including a first boundary and a second boundary, and performing a third boundary according to a simple closed path masking technique using an OR operation and an AND operation. And generating a motion blur region including an area surrounded by the third boundary.

또한, 복원 이미지를 생성하는 단계(530)는 제1 이미지, 제2 이미지, 및 모션 블러 영역에 기초하여 복원 이미지를 생성할 수 있다. 보다 구체적으로, 복원 이미지를 생성하는 단계(530)는 모션 블러 영역에 포함되는 복수의 픽셀들을 모션 디블러링 함으로써 복원 이미지를 생성할 수 있다.In operation 530, the reconstructed image may be generated based on the first image, the second image, and the motion blur region. More specifically, generating the reconstructed image 530 may generate the reconstructed image by motion debluring a plurality of pixels included in the motion blur region.

이 때, 복원 이미지를 생성하는 단계(530)는 복수의 참조 픽셀들을 추출하는 단계, 복수의 참조 픽셀들 각각의 가중치를 계산하는 단계, 복수의 참조 픽셀들 각각의 가중 픽셀값을 계산하는 단계, 및 대상 픽셀의 픽셀값을 계산하는 단계를 포함할 수 있다.In this case, the generating of the reconstructed image may include extracting a plurality of reference pixels, calculating a weight of each of the plurality of reference pixels, calculating a weighted pixel value of each of the plurality of reference pixels, And calculating a pixel value of the target pixel.

복수의 참조 픽셀들을 추출하는 단계는 모션 블러 영역에 포함되는 대상 픽셀을 모션 디블러링 하기 위해 참조되는 복수의 참조 픽셀들을 모션 블러 영역에 포함되지 않는 복수의 픽셀들로부터 추출할 수 있다. 복수의 참조 픽셀들 각각의 가중 픽셀값을 계산하는 단계는 대상 픽셀과 복수의 참조 픽셀들 각각 사이의 거리에 기초하여 복수의 참조 픽셀들 각각의 가중치를 계산할 수 있다. 복수의 참조 픽셀들 각각의 가중 픽셀값을 계산하는 단계는 제2 이미지에 포함된 복수의 픽셀들 중 복수의 참조 픽셀들 각각에 대응되는 픽셀의 픽셀값과 가중치에 기초하여 복수의 참조 픽셀들 각각의 가중 픽셀값을 계산할 수 있다. 대상 픽셀의 픽셀값을 계산하는 단계는 제1 이미지에 포함된 복수의 픽셀들 중 대상 픽셀에 대응되는 픽셀의 픽셀값, 가중치, 및 가중 픽셀값에 기초하여 대상 픽셀의 픽셀값을 계산할 수 있다.The extracting of the plurality of reference pixels may extract a plurality of reference pixels, which are referred to for motion deblocking a target pixel included in the motion blur region, from a plurality of pixels not included in the motion blur region. The calculating of the weighted pixel value of each of the plurality of reference pixels may calculate a weight of each of the plurality of reference pixels based on a distance between the target pixel and each of the plurality of reference pixels. The calculating of the weighted pixel value of each of the plurality of reference pixels may include each of the plurality of reference pixels based on a pixel value and a weight of a pixel corresponding to each of the plurality of reference pixels among the plurality of pixels included in the second image. Calculate the weighted pixel value of. The calculating of the pixel value of the target pixel may calculate the pixel value of the target pixel based on the pixel value, the weight, and the weighted pixel value of the pixel corresponding to the target pixel among the plurality of pixels included in the first image.

이 경우, 대상 픽셀의 픽셀값을 계산하는 단계는 대상 픽셀이 제1 경계에 포함되는 경우 대상 픽셀에 대응되는 픽셀의 픽셀값과 관련된 가중치 인자의 값을 증가시키고, 대상 픽셀이 제1 경계에 포함되지 않는 경우 가중치 및 상기 가중 픽셀값과 관련된 가중치 인자의 값을 증가시킬 수 있다.In this case, calculating the pixel value of the target pixel increases the value of the weighting factor associated with the pixel value of the pixel corresponding to the target pixel when the target pixel is included in the first boundary, and includes the target pixel in the first boundary. If not, the value of the weighting factor associated with the weight and the weighted pixel value may be increased.

도 5에 도시된 단계들 각각에는 도 1 내지 도 4를 통하여 기술한 사항들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.
Since the details described with reference to FIGS. 1 through 4 may be applied to each of the steps illustrated in FIG. 5, a detailed description thereof will be omitted.

도 6a와 도 6b는 일 실시예에 따른 이미지 프로세싱 장치의 반응 속도(response time)를 설명하기 위한 도면이다.6A and 6B are diagrams for describing a response time of an image processing apparatus, according to an exemplary embodiment.

도 6a를 참조하면, 디지털 카메라를 사용하여 이미지를 생성하는 일반적인 과정이 보여진다. 보다 구체적으로, 디지털 카메라는 이용자로부터 촬영 버튼의 입력을 수신할 수 있다(611). 디지털 카메라는 촬영 버튼의 입력에 반응하여 프리뷰를 정지할 수 있다(612). 여기서, 프리뷰는 디지털 카메라에 포함된 디스플레이를 이용하여 이용자에게 제공되는 화면으로, 이용자는 프리뷰를 통하여 자신이 원하는 구도의 사진을 촬영할 수 있다. 즉, 디지털 카메라는 이용자로부터 촬영 버튼의 입력이 수신됨에 반응하여 프리뷰를 정지하고, 이미지 파일의 생성에 필요한 동작을 수행할 수 있다.Referring to FIG. 6A, a general process of generating an image using a digital camera is shown. More specifically, the digital camera may receive an input of a shooting button from the user (611). The digital camera may stop the preview in response to the input of the shooting button (612). Here, the preview is a screen provided to the user by using a display included in the digital camera, and the user may take a picture of a composition desired by the preview. That is, the digital camera may stop the preview in response to the input of the photographing button from the user, and perform an operation required for generating the image file.

나아가, 디지털 카메라는 카메라 모드를 변경 및 설정할 수 있다(613). 예를 들면, 디지털 카메라는 주변의 밝기, 피사체와의 거리, 및 초점 거리 등에 기초하여 촬영에 요구되는 각종 카메라 모드를 변경 및 설정할 수 있다. 이어서, 디지털 카메라는 이미지 센서를 빛에 노출시킴으로써 이미지를 센싱(sensing) 할 수 있다(614). In operation 613, the digital camera may change and set a camera mode. For example, the digital camera may change and set various camera modes required for photographing based on the brightness of the surroundings, the distance to the subject, the focal length, and the like. The digital camera may then sense an image by exposing the image sensor to light (614).

디지털 카메라는 커널 레벨에서 수집된 이미지 데이터를 라이브러리 레벨로 전송할 수 있다(615). 이러한 전송은 큐(Queue)를 이용하여 구현될 수 있고, 이러한 촬영 버퍼로의 전송 과정은 디큐(Dequeue)라고 지칭될 수 있다.The digital camera may transmit the image data collected at the kernel level to the library level (615). This transmission may be implemented using a queue, and the process of transferring to the imaging buffer may be referred to as a dequeue.

디지털 카메라는 라이브러리 레벨에서 전송 받은 이미지 데이터에 기초하여 이미지 프로세싱을 수행하고, 최종 이미지 파일을 생성할 수 있다(616). 디지털 카메라는 다시 프리뷰를 동작 시킴으로써 이용자에게 다음 사진을 촬영할 수 있음을 알릴 수 있다(617).The digital camera may perform image processing based on the image data received at the library level and generate a final image file (616). The digital camera may notify the user that the next picture can be taken by operating the preview again (617).

도 6b를 참조하면, 도 1의 일 실시예에 따른 이미지 프로세싱 장치(100)는 디큐 단계(622)와 모션 블러 영역 검출 단계(623)를 병렬적으로 수행할 수 있다.Referring to FIG. 6B, the image processing apparatus 100 according to the exemplary embodiment of FIG. 1 may perform the dequeue step 622 and the motion blur region detection step 623 in parallel.

보다 구체적으로, 이미지 프로세싱 장치(100)는 이미지 파일을 생성하는 단계(616)를 모션 블러 영역 검출 단계(623), 이미지 복원 단계(624), 및 이미지 파일 생성 단계(625)로 분할하여 수행할 수 있다.More specifically, the image processing apparatus 100 may divide the step 616 of generating the image file into the motion blur area detection step 623, the image reconstruction step 624, and the image file generation step 625. Can be.

전술한 바와 같이, 이미지 프로세싱 장치(100)는 이미지 센싱 단계(621)에서 제1 이미지와 제2 이미지를 생성할 수 있다. 이 때, 이미지 프로세싱 장치(100)는 버퍼로부터 이전 프리뷰 이미지 데이터를 불러올 수 있다(626). 즉, 이미지 프로세싱 장치(100)는 제1 이미지와 제2 이미지를 모두 커널 레벨에서 라이브러리 레벨로 디큐하는 동안(622), 이전 제 2 이미지와 동일한 노출 시간을 갖는 프리뷰 이미지 데이터를 사용하여 제1 이미지의 히스토그램 등화를 위한 디자이어드 히스토그램 등화 파라미터(desired histogram equalization parameter)값을 계산할 수 있다(623). 또한, 이미지 프로세싱 장치(100)는 디큐 단계 동안(622), 곤잘레즈(Gonzalez) 알고리즘을 사용하여 제 2 이미지의 경계값을 계산할 수 있다(623). As described above, the image processing apparatus 100 may generate the first image and the second image in the image sensing step 621. In this case, the image processing apparatus 100 may retrieve previous preview image data from the buffer (626). That is, while the image processing apparatus 100 dequeues both the first image and the second image from the kernel level to the library level (622), the first image using the preview image data having the same exposure time as the previous second image is used. A determined histogram equalization parameter value for the histogram equalization may be calculated (623). In addition, during the dequeue step 622, the image processing apparatus 100 may calculate a boundary value of the second image using a Gonzalez algorithm (623).

일 실시예에 따르면, 모션 블러 영역은 이진화된 이미지 파일이므로, 제1 이미지 또는 제2 이미지에 비하여 용량이 매우 작을 수 있다. 따라서, 이미지 프로세싱 장치(100)는 제1 이미지와 제2 이미지를 모두 촬영 버퍼에서 라이브러리 레벨로 디큐하는 동안(622), 검출된 모션 블러 영역을 라이브러리 레벨로 디큐할 수 있다.According to an embodiment, since the motion blur region is a binarized image file, the capacity may be very small compared to the first image or the second image. Accordingly, the image processing apparatus 100 may dequeue the detected motion blur region to the library level while dequeuing both the first image and the second image to the library level in the imaging buffer (622).

이미지 프로세싱 장치(100)는 라이브러리 레벨에서 제1 이미지, 제2 이미지, 및 모션 블러 영역에 기초하여 이미지를 복원을 위한 모션 디블러링을 수행할 수 있다(624). 이미지 프로세싱 장치(100)는 이미지 복원 결과를 이용하여 최종 이미지 파일을 생성할 수 있다(625).The image processing apparatus 100 may perform motion debluring for reconstructing an image based on the first image, the second image, and the motion blur area at the library level. The image processing apparatus 100 may generate a final image file by using the image reconstruction result (625).

한편, 이미지 프로세싱 장치(100)는 디큐 단계(622)동안 이미지 파일 생성 단계(625)가 완료되었는지 여부와 무관하게 카메라 센서로 하여금 프리뷰를 동작시키도록 할 수 있다(626). 디큐 단계(622) 내지 이미지 파일 생성 단계(625)는 소프트웨어(SW)로 구동되므로(즉, AP를 사용하므로), 디큐 단계(622) 내지 이미지 파일 생성 단계(625)가 수행되는 동안 카메라 센서는 아무런 작업을 수행하지 않을 수 있다. 따라서, 이미지 프로세싱 장치(100)는 디큐 단계(622)동안 카메라 센서가 프리뷰 동작을 재개하도록 제어할 수 있다.. 이로 인하여, 이미지 프로세싱 장치(100)는 이용자가 느끼는 촬영의 반응 속도를 감소시키는 기술을 제공할 수 있다.
Meanwhile, the image processing apparatus 100 may cause the camera sensor to operate the preview regardless of whether the image file generation step 625 is completed during the dequeue step 622 (626). Since the dequeue step 622 to the image file generation step 625 are driven by software SW (ie, using the AP), the camera sensor is operated while the dequeue step 622 to the image file generation step 625 is performed. You may not do anything. Therefore, the image processing apparatus 100 may control the camera sensor to resume the preview operation during the dequeue step 622. As a result, the image processing apparatus 100 may reduce the response speed of the photographing that the user feels. Can be provided.

도 7은 일 실시예에 따른 이미지 프로세싱 장치에 의해 모션 블러가 처리된 결과를 설명하기 위한 도면이다.FIG. 7 is a diagram for describing a result of motion blur being processed by the image processing apparatus, according to an exemplary embodiment.

도 7을 참조하면, 일 실시예에 따른 이미지 프로세싱 장치는 제1 이미지(710)와 제2 이미지(720)를 생성할 수 있다.Referring to FIG. 7, an image processing apparatus may generate a first image 710 and a second image 720.

제1 이미지(710)는 제2 이미지(720)에 비하여 노이즈를 많이 포함하고 어두운 대신 모션 블러를 거의 포함하지 않을 수 있다. 반면, 제2 이미지(720)는 제1 이미지(710)에 비하여 모션 블러를 많이 포함하는 대신 SNR이 좋고 밝을 수 있다.The first image 710 may include more noise than the second image 720 and may include little motion blur instead of dark. On the other hand, the second image 720 may have better SNR and brighter than the first image 710 instead of including a lot of motion blur.

또한, 일 실시예에 따른 이미지 프로세싱 장치는 제1 이미지(710)로부터 제1 경계(730)을 추출하고, 제2 이미지(720)로부터 제2 경계(740)를 추출할 수 있다.In addition, the image processing apparatus may extract the first boundary 730 from the first image 710 and the second boundary 740 from the second image 720.

이 경우, 제1 경계(730)와 제2 경계(740) 각각은 이진화된 이미지를 포함할 수 있다. 예를 들면, 제1 경계(730)와 제2 경계(740) 각각은 '0'과 '1'로 구성된 이진화된 이미지일 수 있고, 이진화된 이미지 내 '1'의 값을 갖는 픽셀들의 집합이 경계를 나타낼 수 있다.In this case, each of the first boundary 730 and the second boundary 740 may include a binarized image. For example, each of the first boundary 730 and the second boundary 740 may be a binarized image composed of '0' and '1', and a set of pixels having a value of '1' in the binarized image may be obtained. It may indicate a boundary.

또한, 일 실시예에 따른 이미지 프로세싱 장치는 제1 경계(730)와 제2 경계(740)로부터 모션 블러 영역(750)을 생성할 수 있다.In addition, the image processing apparatus may generate the motion blur region 750 from the first boundary 730 and the second boundary 740.

이미지 프로세싱 장치는 제1 경계(730)와 제2 경계(740)를 모두 포함하는 제3 경계(도면 미표시)를 생성할 수 있다. 나아가, 이미지 프로세싱 장치는 단순 패쇄 경로 마스킹 기법에 기초하여 제3 경계에 의하여 둘러싸이는 부분들을 검출하고, 검출된 부분들을 더 포함하는 모션 블러 영역(750)을 생성할 수 있다.The image processing apparatus may generate a third boundary (not shown) including both the first boundary 730 and the second boundary 740. Furthermore, the image processing apparatus may detect portions surrounded by the third boundary based on a simple block path masking technique, and generate a motion blur region 750 further including the detected portions.

또한, 일 실시예에 따른 이미지 프로세싱 장치는 모션 블러 영역(750)으로 한정된 영역에만 모션 디블러링을 수행함으로써, 최종 이미지 파일(760)을 생성할 수 있다. 이로 인하여, 이미지 프로세싱 장치는 이미지 복원을 위한 연산량을 감소시키고, 연산량 대비 복원된 이미지의 질을 최적화시키는 기술을 제공할 수 있다.In addition, the image processing apparatus according to an exemplary embodiment may generate the final image file 760 by performing motion blurring only on an area defined by the motion blur area 750. As a result, the image processing apparatus may provide a technique for reducing the amount of computation for image restoration and optimizing the quality of the restored image relative to the computation amount.

뿐만 아니라, 제1 이미지와 제2 이미지에 기초하여 생성된 모션 블러 영역(750)을 이용함에 따라 이미지 프로세싱 장치는 이미지 내 오브젝트(object) 별로 모션 디블러링을 수행하는 기술을 제공할 수 있다.In addition, by using the motion blur region 750 generated based on the first image and the second image, the image processing apparatus may provide a technique for performing motion deblur for each object in the image.

예를 들면, 모션 블러가 발생되는 경우는 크게 두 가지로 분류할 수 있다. 우선, 이미지 센서가 빛에 노출되는 동안 이미지 센서가 고정되지 못하고 흔들리는 경우 모션 블러가 발생될 수 있다. 이 경우, 이미지 내 오브젝트들에 동일한 방향과 동일한 크기의 모션 블러가 발생될 수 있다.For example, motion blur can be classified into two types. First, motion blur may occur when the image sensor is not fixed and shakes while the image sensor is exposed to light. In this case, motion blur of the same direction and the same size may be generated in the objects in the image.

또한, 이미지 센서가 빛에 노출되는 동안 이미지 센서는 고정되어 있으나, 피사체가 움직이는 경우 모션 블러가 발생될 수 있다. 이 경우, 이미지 내 오브젝트들이 다른 방향과 다른 속도로 이동한다면, 이미지 내 오브젝트마다 상이한 방향과 상이한 크기의 모션 블러가 발생될 수 있다.In addition, although the image sensor is fixed while the image sensor is exposed to light, motion blur may occur when the subject moves. In this case, if the objects in the image move at different speeds and in different directions, motion blur of different directions and sizes may be generated for each object in the image.

일 실시예에 따른 이미지 프로세싱 장치는 첫 번째 경우뿐 아니라, 두 번째 경우에도 효율적으로 모션 블러를 제거하는 기술을 제공할 수 있다.
The image processing apparatus according to an embodiment may provide a technique for efficiently eliminating motion blur in the second case as well as in the first case.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (17)

이미지 데이터에 포함된 모션 블러(motion blur)를 처리하는 이미지 프로세싱 장치에 있어서,
한 번의 촬영으로 제1 이미지와 제2 이미지를 획득하는 이미지 촬영부;
상기 제1 이미지와 상기 제2 이미지에 기초하여 모션 블러가 발생된 모션 블러 영역을 검출하는 모션 블러 영역 검출부; 및
상기 제1 이미지, 상기 제2 이미지, 및 상기 모션 블러 영역에 기초하여 복원 이미지를 생성하는 이미지 복원부
를 포함하는 이미지 프로세싱 장치.
An image processing apparatus for processing a motion blur included in image data,
An image capturing unit which acquires the first image and the second image by one shooting;
A motion blur region detector configured to detect a motion blur region where motion blur is generated based on the first image and the second image; And
An image reconstructor configured to generate a reconstructed image based on the first image, the second image, and the motion blur region
Image processing apparatus comprising a.
제1항에 있어서,
상기 이미지 촬영부는
제1 노출 시간에 기초하여 상기 제1 이미지를 생성하고, 제2 노출 시간에 기초하여 상기 제2 이미지를 생성하는 이미지 생성부
를 포함하고,
상기 제1 노출 시간은 상기 제2 노출 시간보다 짧은 이미지 프로세싱 장치.
The method of claim 1,
The image capturing unit
An image generator which generates the first image based on a first exposure time and generates the second image based on a second exposure time.
Lt; / RTI >
And the first exposure time is shorter than the second exposure time.
제2항에 있어서,
상기 이미지 촬영부는
상기 제2 이미지에 기초하여 상기 제1 이미지에 히스토그램 등화(equalization) 기법을 적용하는 히스토그램 등화부
를 더 포함하는 이미지 프로세싱 장치.
3. The method of claim 2,
The image capturing unit
A histogram equalizer which applies a histogram equalization technique to the first image based on the second image
Image processing apparatus further comprising.
제1항에 있어서,
상기 모션 블러 영역 검출부는
상기 제1 이미지에 포함된 제1 경계(edge)를 추출하고, 상기 제2 이미지에 포함된 제2 경계를 추출하는 경계 추출부; 및
상기 제1 경계와 상기 제2 경계에 기초하여 상기 모션 블러 영역을 획득하는 모션 블러 영역 획득부
를 포함하는 이미지 프로세싱 장치.
The method of claim 1,
The motion blur region detector
A boundary extractor extracting a first edge included in the first image and extracting a second boundary included in the second image; And
A motion blur region acquisition unit that obtains the motion blur region based on the first boundary and the second boundary.
Image processing apparatus comprising a.
제4항에 있어서,
상기 경계 추출부는
경계인지 여부를 판단하기 위한 문턱값을 결정하는 문턱값 결정부; 및
상기 문턱값에 기초하여 상기 제1 경계와 상기 제2 경계를 생성하는 경계 생성부
를 포함하는 이미지 프로세싱 장치.
5. The method of claim 4,
The boundary extractor
A threshold value determination unit which determines a threshold for determining whether the boundary is a boundary; And
A boundary generator for generating the first boundary and the second boundary based on the threshold value.
Image processing apparatus comprising a.
제4항에 있어서,
상기 모션 블러 영역 획득부는
상기 제1 경계와 상기 제2 경계를 포함하는 제3 경계를 생성하는 경계 생성부; 및
단순 패쇄 경로 마스킹(simple closed path masking) 기법에 따라, 상기 제3 경계 및 상기 제3 경계에 둘러싸인 영역을 포함하는 상기 모션 블러 영역을 생성하는 모션 블러 영역 생성부
를 포함하는 이미지 프로세싱 장치.
5. The method of claim 4,
The motion blur region acquisition unit
A boundary generator which generates a third boundary including the first boundary and the second boundary; And
A motion blur region generator for generating the motion blur region including the third boundary and the region surrounded by the third boundary according to a simple closed path masking technique.
Image processing apparatus comprising a.
제6항에 있어서,
상기 단순 패쇄 경로 마스킹 기법은 OR 연산과 AND 연산을 이용하여 상기 제3 경계에 둘러싸인 영역을 획득하는 이미지 프로세싱 장치.
The method according to claim 6,
The simple block path masking technique obtains an area surrounded by the third boundary by using an OR operation and an AND operation.
제1항에 있어서,
상기 이미지 복원부는 상기 모션 블러 영역에 포함되는 복수의 픽셀들을 모션 디블러링 함으로써 상기 복원 이미지를 생성하는 이미지 프로세싱 장치.
The method of claim 1,
And the image reconstructor generates the reconstructed image by motion debluring a plurality of pixels included in the motion blur region.
제1항에 있어서,
상기 이미지 복원부는 상기 제2 이미지에 기초하여 상기 모션 블러 영역에 포함되지 않는 복수의 픽셀들 각각의 픽셀값을 설정함으로써 상기 복원 이미지를 생성하는 이미지 프로세싱 장치.
The method of claim 1,
And the image reconstructor generates the reconstructed image by setting pixel values of each of a plurality of pixels not included in the motion blur region based on the second image.
제1항에 있어서,
상기 이미지 복원부는
상기 모션 블러 영역에 포함되는 대상 픽셀을 모션 디블러링 하기 위해 참조되는 복수의 참조 픽셀들을 상기 모션 블러 영역에 포함되지 않는 복수의 픽셀들로부터 추출하는 참조 픽셀 추출부;
상기 대상 픽셀과 상기 복수의 참조 픽셀들 각각 사이의 거리에 기초하여 상기 복수의 참조 픽셀들 각각의 가중치(weight)를 계산하는 가중치 계산부;
상기 제2 이미지에 포함된 복수의 픽셀들 중 상기 복수의 참조 픽셀들 각각에 대응되는 픽셀의 픽셀값과 상기 가중치에 기초하여 상기 복수의 참조 픽셀들 각각의 가중 픽셀값을 계산하는 가중 픽셀값 계산부; 및
상기 제1 이미지에 포함된 복수의 픽셀들 중 상기 대상 픽셀에 대응되는 픽셀의 픽셀값, 상기 가중치, 및 상기 가중 픽셀값에 기초하여 상기 대상 픽셀의 픽셀값을 계산하는 대상 픽셀값 계산부
를 포함하는 이미지 프로세싱 장치.
The method of claim 1,
The image restoration unit
A reference pixel extracting unit which extracts a plurality of reference pixels, which are referred to for motion blurring a target pixel included in the motion blur region, from a plurality of pixels not included in the motion blur region;
A weight calculator configured to calculate a weight of each of the plurality of reference pixels based on a distance between the target pixel and each of the plurality of reference pixels;
A weighted pixel value calculation for calculating a weighted pixel value of each of the plurality of reference pixels based on a pixel value of the pixel corresponding to each of the plurality of reference pixels among the plurality of pixels included in the second image and the weight. part; And
A target pixel value calculator configured to calculate a pixel value of the target pixel based on a pixel value, the weight, and the weighted pixel value of a pixel corresponding to the target pixel among the plurality of pixels included in the first image
Image processing apparatus comprising a.
제10항에 있어서,
상기 대상 픽셀값 계산부는
상기 대상 픽셀이 상기 제1 경계에 포함되는 경우 상기 대상 픽셀에 대응되는 픽셀의 픽셀값과 관련된 가중치 인자의 값을 증가시키고,
상기 대상 픽셀이 상기 제1 경계에 포함되지 않는 경우 상기 가중치 및 상기 가중 픽셀값과 관련된 가중치 인자의 값을 증가시키는 이미지 프로세싱 장치.
The method of claim 10,
The target pixel value calculation unit
When the target pixel is included in the first boundary, a value of a weighting factor associated with a pixel value of a pixel corresponding to the target pixel is increased;
And increase a value of a weight factor associated with the weight and the weighted pixel value when the target pixel is not included in the first boundary.
이미지 데이터에 포함된 모션 블러를 처리하는 이미지 프로세싱 방법에 있어서,
한 번의 촬영으로 제1 이미지와 제2 이미지를 획득하는 단계;
상기 제1 이미지에 포함된 제1 경계를 추출하고, 상기 제2 이미지에 포함된 제2 경계를 추출하는 단계; 및
상기 제1 경계와 상기 제2 경계에 기초하여 상기 모션 블러 영역을 획득하는 단계; 및
상기 제1 이미지, 상기 제2 이미지, 및 상기 모션 블러 영역에 기초하여 복원 이미지를 생성하는 단계
를 포함하고,
상기 제1 이미지를 위한 제1 노출 시간은 상기 제2 이미지를 위한 제2 노출 시간보다 짧은 이미지 프로세싱 방법.
An image processing method for processing motion blur included in image data,
Acquiring the first image and the second image in one shot;
Extracting a first boundary included in the first image and extracting a second boundary included in the second image; And
Obtaining the motion blur area based on the first boundary and the second boundary; And
Generating a reconstructed image based on the first image, the second image, and the motion blur region
Lt; / RTI >
And a first exposure time for the first image is shorter than a second exposure time for the second image.
제12항에 있어서,
상기 모션 블러 영역을 획득하는 단계는
상기 제1 경계와 상기 제2 경계를 포함하는 제3 경계를 생성하는 단계; 및
OR 연산과 AND 연산을 이용하는 단순 패쇄 경로 마스킹 기법에 따라, 상기 제3 경계 및 상기 제3 경계에 둘러싸인 영역을 포함하는 상기 모션 블러 영역을 생성하는 단계
를 포함하는 이미지 프로세싱 방법.
The method of claim 12,
Acquiring the motion blur region
Creating a third boundary comprising the first boundary and the second boundary; And
Generating the motion blur region including the third boundary and an area surrounded by the third boundary according to a simple blockage path masking technique using an OR operation and an AND operation
Image processing method comprising a.
제12항에 있어서,
상기 복원 이미지를 생성하는 단계는 상기 모션 블러 영역에 포함되는 복수의 픽셀들을 모션 디블러링 함으로써 상기 복원 이미지를 생성하는 이미지 프로세싱 방법.
The method of claim 12,
The generating of the reconstructed image may include generating the reconstructed image by motion deblocking a plurality of pixels included in the motion blur region.
제12항에 있어서,
상기 복원 이미지를 생성하는 단계는
상기 모션 블러 영역에 포함되는 대상 픽셀을 모션 디블러링 하기 위해 참조되는 복수의 참조 픽셀들을 상기 모션 블러 영역에 포함되지 않는 복수의 픽셀들로부터 추출하는 단계;
상기 대상 픽셀과 상기 복수의 참조 픽셀들 각각 사이의 거리에 기초하여 상기 복수의 참조 픽셀들 각각의 가중치를 계산하는 단계;
상기 제2 이미지에 포함된 복수의 픽셀들 중 상기 복수의 참조 픽셀들 각각에 대응되는 픽셀의 픽셀값과 상기 가중치에 기초하여 상기 복수의 참조 픽셀들 각각의 가중 픽셀값을 계산하는 단계; 및
상기 제1 이미지에 포함된 복수의 픽셀들 중 상기 대상 픽셀에 대응되는 픽셀의 픽셀값, 상기 가중치, 및 상기 가중 픽셀값에 기초하여 상기 대상 픽셀의 픽셀값을 계산하는 단계
를 포함하는 이미지 프로세싱 방법.
The method of claim 12,
Generating the reconstructed image
Extracting a plurality of reference pixels, which are referred to for motion blurring a target pixel included in the motion blur region, from a plurality of pixels not included in the motion blur region;
Calculating weights of each of the plurality of reference pixels based on a distance between the target pixel and each of the plurality of reference pixels;
Calculating a weighted pixel value of each of the plurality of reference pixels based on a pixel value of the pixel corresponding to each of the plurality of reference pixels among the plurality of pixels included in the second image and the weight; And
Calculating a pixel value of the target pixel based on a pixel value of the pixel corresponding to the target pixel, the weight, and the weighted pixel value among the plurality of pixels included in the first image
Image processing method comprising a.
제15항에 있어서,
상기 대상 픽셀의 픽셀값을 계산하는 단계는
상기 대상 픽셀이 상기 제1 경계에 포함되는 경우 상기 대상 픽셀에 대응되는 픽셀의 픽셀값과 관련된 가중치 인자의 값을 증가시키고,
상기 대상 픽셀이 상기 제1 경계에 포함되지 않는 경우 상기 가중치 및 상기 가중 픽셀값과 관련된 가중치 인자의 값을 증가시키는 이미지 프로세싱 방법.
16. The method of claim 15,
Computing the pixel value of the target pixel
When the target pixel is included in the first boundary, a value of a weighting factor associated with a pixel value of a pixel corresponding to the target pixel is increased;
And increase a value of a weight factor associated with the weight and the weighted pixel value when the target pixel is not included in the first boundary.
제12항 내지 제16항 중에서 어느 하나의 항의 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.
A computer-readable recording medium having recorded thereon a program for executing the method of any one of claims 12 to 16.
KR1020120076186A 2012-07-12 2012-07-12 Image processing device of searching and controlling an motion blur included in an image data and method thereof KR101886246B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120076186A KR101886246B1 (en) 2012-07-12 2012-07-12 Image processing device of searching and controlling an motion blur included in an image data and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120076186A KR101886246B1 (en) 2012-07-12 2012-07-12 Image processing device of searching and controlling an motion blur included in an image data and method thereof

Publications (2)

Publication Number Publication Date
KR20140009706A true KR20140009706A (en) 2014-01-23
KR101886246B1 KR101886246B1 (en) 2018-08-07

Family

ID=50142743

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120076186A KR101886246B1 (en) 2012-07-12 2012-07-12 Image processing device of searching and controlling an motion blur included in an image data and method thereof

Country Status (1)

Country Link
KR (1) KR101886246B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108230257A (en) * 2017-11-15 2018-06-29 北京市商汤科技开发有限公司 Image processing method, device, electronic equipment and storage medium
WO2020231065A1 (en) * 2019-05-10 2020-11-19 Samsung Electronics Co., Ltd. Method and apparatus for combining image frames captured using different exposure settings into blended images
CN114187231A (en) * 2021-10-26 2022-03-15 昆山丘钛微电子科技股份有限公司 Viewing angle calculation method, terminal device, and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060170780A1 (en) * 2005-01-31 2006-08-03 Richard Turley Method and apparatus for motion estimation in a digital imaging device
JP2009088935A (en) * 2007-09-28 2009-04-23 Sanyo Electric Co Ltd Image recording apparatus, image correcting apparatus, and image pickup apparatus
KR20090080616A (en) * 2008-01-22 2009-07-27 삼성전자주식회사 Apparatus and method for obtaining images and apparatus and method for processing images
JP2009207118A (en) * 2008-01-16 2009-09-10 Sanyo Electric Co Ltd Image shooting apparatus and blur correction method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060170780A1 (en) * 2005-01-31 2006-08-03 Richard Turley Method and apparatus for motion estimation in a digital imaging device
JP2009088935A (en) * 2007-09-28 2009-04-23 Sanyo Electric Co Ltd Image recording apparatus, image correcting apparatus, and image pickup apparatus
JP2009207118A (en) * 2008-01-16 2009-09-10 Sanyo Electric Co Ltd Image shooting apparatus and blur correction method
KR20090080616A (en) * 2008-01-22 2009-07-27 삼성전자주식회사 Apparatus and method for obtaining images and apparatus and method for processing images

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108230257A (en) * 2017-11-15 2018-06-29 北京市商汤科技开发有限公司 Image processing method, device, electronic equipment and storage medium
WO2020231065A1 (en) * 2019-05-10 2020-11-19 Samsung Electronics Co., Ltd. Method and apparatus for combining image frames captured using different exposure settings into blended images
US11062436B2 (en) 2019-05-10 2021-07-13 Samsung Electronics Co., Ltd. Techniques for combining image frames captured using different exposure settings into blended images
CN114187231A (en) * 2021-10-26 2022-03-15 昆山丘钛微电子科技股份有限公司 Viewing angle calculation method, terminal device, and storage medium

Also Published As

Publication number Publication date
KR101886246B1 (en) 2018-08-07

Similar Documents

Publication Publication Date Title
CN110121882B (en) Image processing method and device
CN108898567B (en) Image noise reduction method, device and system
KR101664123B1 (en) Apparatus and method of creating high dynamic range image empty ghost image by using filtering
KR101633377B1 (en) Method and Apparatus for Processing Frames Obtained by Multi-Exposure
KR102182695B1 (en) Method and Apparatus for Noise Reduction
JP5651118B2 (en) Image processing apparatus and image processing method
US20170280073A1 (en) Systems and Methods for Reducing Noise in Video Streams
WO2017090458A1 (en) Imaging device, imaging method, and program
JP5427935B2 (en) Camera and method for optimizing the exposure of an image frame in a series of image frames that capture a scene based on the level of motion in the scene
KR102049080B1 (en) Image processing apparatus and method thereof
US10171743B2 (en) Image pickup apparatus, image processing apparatus, image processing method, and non-transitory computer-readable storage medium for improving quality of captured image
KR20150037369A (en) Method for decreasing noise of image and image processing apparatus using thereof
CN111614867B (en) Video denoising method and device, mobile terminal and storage medium
US10063779B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
KR20200047389A (en) Method and apparatus for capturing an image based motion information in the image
JP4958806B2 (en) Blur detection device, blur correction device, and imaging device
Gyongy et al. Object tracking and reconstruction with a quanta image sensor
KR101886246B1 (en) Image processing device of searching and controlling an motion blur included in an image data and method thereof
US10467730B2 (en) Image-processing apparatus to reduce staircase artifacts from an image signal
JP2020046960A (en) Image processing apparatus, control method for image processing apparatus, and program
JP2015156189A (en) image evaluation device, and image evaluation program
Paramanand et al. Motion blur for motion segmentation
JP7341712B2 (en) Image processing device, image processing method, imaging device, and program
JP5853369B2 (en) Image processing apparatus, image processing method, and program
JP2024110493A (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND IMAGE PROCESSING METHOD

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant