KR20140020464A - Apparatus and method for processing image - Google Patents

Apparatus and method for processing image Download PDF

Info

Publication number
KR20140020464A
KR20140020464A KR1020120086888A KR20120086888A KR20140020464A KR 20140020464 A KR20140020464 A KR 20140020464A KR 1020120086888 A KR1020120086888 A KR 1020120086888A KR 20120086888 A KR20120086888 A KR 20120086888A KR 20140020464 A KR20140020464 A KR 20140020464A
Authority
KR
South Korea
Prior art keywords
image
flare
area
point spread
spread function
Prior art date
Application number
KR1020120086888A
Other languages
Korean (ko)
Other versions
KR101946946B1 (en
Inventor
문영섭
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020120086888A priority Critical patent/KR101946946B1/en
Priority to JP2013018426A priority patent/JP6185249B2/en
Priority to US13/872,642 priority patent/US9007493B2/en
Publication of KR20140020464A publication Critical patent/KR20140020464A/en
Application granted granted Critical
Publication of KR101946946B1 publication Critical patent/KR101946946B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

An image processing device according to an embodiment of the present invention includes a step of receiving images; a step of dividing the received image into a plurality of blocks; a step of obtaining brightness information for the pixels by the divided blocks; a step of detecting a flare area among the divided blocks; a step of determining image restoration conditions applied to the flare area of the image and the rest of the area; and a step of restoring the initial image using the determined image restoration conditions. The image restoration condition applied to the flare area is different from the image restoration condition applied to the rest of the area. [Reference numerals] (AA) Start; (BB) No; (CC) Yes; (DD) End; (S201) Dividing an image into a plurality of blocks; (S202) Checking the brightness information for pixels by divided blocks; (S203) 255 area exists?; (S204) Determining a flare area to adjacent blocks located in an A^th location around the 255 area; (S205) Determining a correction point spread function to be applied to the A^th adjacent block; (S206) Restoring the initial image using the correction point spread function; (S207) Checking a reference point spread function; (S208) Restoring the initial image by applying the reference point spread function to all the blocks

Description

이미지 처리 장치 및 이의 이미지 처리 방법{APPARATUS AND METHOD FOR PROCESSING IMAGE}[0001] APPARATUS AND METHOD FOR PROCESSING IMAGE [0002]

실시 예는, 카메라에 관한 것으로, 특히 포인트 스프레드 함수를 이용하여 이미지에 포함된 플레어 영역을 제거할 수 있는 이미지 처리 장치 및 이의 이미지 처리 방법에 관한 것이다. An embodiment relates to a camera, and more particularly, to an image processing apparatus and its image processing method capable of removing a flare area included in an image using a point spread function.

일반 주택을 비롯하여 백화점, 은행, 전시장, 공장 등의 실내 외에 구비되는 감시 카메라(CCTV: Closed Circuit Television)는 도난을 방지하고 기계의 작동상태 또는 공정 흐름이나 상황 판단 등을 위하여 다양하게 이용되고 있다.Surveillance cameras (CCTV: Closed Circuit Television), which are installed in indoor and outside rooms of department stores, banks, exhibition halls, factories, etc., are used variously to prevent theft and to judge the operating state of the machine,

감시 카메라는 특정 장소에 설치되어 해당 장소에서 벌어지는 모든 상황을 원격지에서 모니터링하기 위한 목적으로 이용되어 왔으며, 이를 위하여 영상 송출기와 영상 송출기로부터 송신된 신호를 수신하여 표시 장치에 제공하는 표시부 등을 포함한다.The surveillance camera has been installed in a specific place and has been used for the purpose of monitoring all the situations occurring in the place remotely, and includes a video transmitter and a display unit for receiving signals transmitted from the video transmitter and providing the signals to the display device .

한편, 일반적으로 디지털 카메라는 그 구조에 있어서 일반 카메라의 광학과 메카니즘을 이용한다는 점에서 유사하지만, 필름 대신 CCD(Charge Coupled Device)라는 이미지 센서로 화상을 받아들여 그 신호를 디지털 데이터로 변환하고, 그래픽 파일로 메모리에 저장하는 방식을 취하는 점에서 차이가 있다.Generally, a digital camera is similar in that it uses the optics and mechanisms of a general camera in its structure. However, instead of the film, an image is captured by a CCD (Charge Coupled Device), the signal is converted into digital data, The difference is that it takes the approach of storing it in memory as a file.

이러한, 디지털 카메라는 촬영한 화상을 디스플레이 화면을 통해 즉시 확인할 수 있으며, 컴퓨터를 통한 편집, 출력 등 다양한 자료 처리가 가능하고, 필요시에는 복잡한 필름 현상 및 인화과정 없이 즉시 프린터로 인쇄할 수 있으므로 그 활용도가 확대되고 있다.Such a digital camera can instantly check captured images on a display screen, and can process various data such as editing and output through a computer. If necessary, it can print on a printer without complicated film phenomenon and printing process, Utilization is expanding.

도 1 내지 3은 종래 기술에 따라 발생하는 플레어 현상을 설명하기 위한 도면이다.Figs. 1 to 3 are views for explaining flare phenomena occurring according to the prior art.

종래 기술에 따른 카메라는, 외부로부터 밝은 빛이 들어오면, 센서 포화 상태가 일어나게 되고, 이로 인해 촬영한 이미지의 전체가 하얗게 되는 플레어 현상이 발생한다.In the camera according to the related art, when bright light comes from the outside, a sensor saturation state occurs, and a flare phenomenon occurs in which the whole of the photographed image is whitened.

상기와 같은 플레어 현상은, 도 1에 도시된 바와 같이 이미지 센서의 결상면에 영상이 정확히 맺히는 1차 광 이외에, 0차 또는 2차 광과 같은 잡광에 의해 발생한다.1, the flare phenomenon is generated by a light source such as a zero-order light or a secondary light other than the primary light that the image is accurately formed on the image plane of the image sensor.

즉, 도 2에 도시된 바와 같이 1차 광을 중심으로, 2차 광 및 0차 광이 그래프와 같은 형태로 발생하며, 상기 1차 광의 강도가 커짐에 따라 상기 0차 및 2차 광의 강도도 커지게 된다.That is, as shown in FIG. 2, the secondary light and the zeroth-order light occur in the form of a graph around the primary light, and as the intensity of the primary light increases, the intensity of the zero- .

이에 따라, 도 3에 도시된 바와 같은 영상이 표출되며, 상기 표출되는 영상에는 광원 주위로 플레어가 형성되어 화질 열화의 원인이 된다.Accordingly, an image as shown in FIG. 3 is displayed, and a flare is formed around the light source in the displayed image, which causes image quality deterioration.

이와 같은 플레어는 0차 및 2차와 같은 광들이 결상면에 정확히 맺히지 않아 만들어지며, 상기 플레어를 저감시키기 위해 밝기를 줄이게 되면, 어두운 부분의 계조가 묻히게 되어 또 다른 화질 열화의 원인이 된다.Such a flare is produced because the 0th order light and the second order light are not accurately formed on the image plane. If the brightness is reduced in order to reduce the flare, the gradation of the dark portion is buried, which causes another image quality deterioration.

이에 따라 상기 영상 플레어 현상을 저감시켜 화질의 열화를 방지할 수 있는 기술이 필요하다.Accordingly, there is a need for a technique capable of reducing the image flare phenomenon and preventing deterioration of image quality.

실시 예에서는, 이미지에 포함된 플레어 영역을 검출하고, 상기 검출한 플레어 영역을 원 이미지로 복원할 수 있는 이미지 처리 장치 및 이의 이미지 처리 방법을 제공한다.Embodiments provide an image processing apparatus and an image processing method thereof capable of detecting a flare region included in an image and restoring the detected flare region into an original image.

또한, 실시 예에서는, 이미지를 일정 영역으로 분할하고, 그에 따라 상기 분할된 영역에 서로 다른 포인트 스프레드 함수를 적용하여, 플레어가 발생하기 이전의 원 이미지를 복원할 수 있는 카메라 및 이의 영상 처리 방법을 제공한다.In addition, in the embodiment, a camera and its image processing method capable of dividing an image into a predetermined area and applying different point spread functions to the divided area to restore original images before flare occurs to provide.

제안되는 실시 예에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 제안되는 실시 예가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that the technical objectives to be achieved by the embodiments are not limited to the technical matters mentioned above and that other technical subjects not mentioned are apparent to those skilled in the art to which the embodiments proposed from the following description belong, It can be understood.

실시 예에 따른 이미지 처리 장치는, 이미지를 수신하는 단계; 상기 수신된 이미지를 복수의 블록으로 분할하는 단계; 상기 분할된 블록별로 픽셀의 밝기 정보를 획득하는 단계; 상기 획득한 밝기 정보를 이용하여, 상기 분할된 블록 중 플레어 영역을 검출하는 단계; 상기 이미지의 플레어 영역과, 그 이외의 영역에 적용될 이미지 복원 조건을 결정하는 단계; 및 상기 결정된 이미지 복원 조건을 이용하여 원래의 이미지를 복원하는 단계를 포함하여 이루어지며, 상기 플레어 영역에 적용되는 이미지 복원 조건과, 상기 그 이외의 영역에 적용되는 이미지 복원 조건은 서로 다르다.An image processing apparatus according to an embodiment includes: an image; Dividing the received image into a plurality of blocks; Obtaining brightness information of a pixel for each of the divided blocks; Detecting a flare region of the divided blocks using the obtained brightness information; Determining an image restoration condition to be applied to the flare area of the image and other areas; And restoring an original image using the determined image restoration condition, wherein an image restoration condition applied to the flare area and an image restoration condition applied to the other area are different from each other.

또한, 상기 플레어 영역을 검출하는 단계는, 상기 획득한 밝기 정보를 이용하여, 상기 각각의 블록 중 255 레벨을 가지는 픽셀 수가 기설정된 기준치 이상이 되는 제 1 블록을 확인하는 단계와, 상기 확인된 제 1 블록의 인접 블록을 상기 플레어 영역으로 검출하는 단계를 포함한다.The step of detecting the flare region may include the steps of: identifying a first block in which the number of pixels having 255 levels in each of the blocks is equal to or greater than a predetermined reference value using the obtained brightness information; And detecting an adjacent block of one block as the flare area.

또한, 상기 플레어 영역으로 검출하는 단계는, 상기 제 1 블록에서부터 N번째까지 위치한 인접 블록을 플레어 영역으로 검출하는 단계를 포함한다.The detecting as the flare area may include detecting a neighboring block located from the first block to the Nth flare area.

또한, 상기 인접 블록은, 상기 제 1 블록의 상, 하, 좌 및 우측 방향에 인접해 있는 블록을 포함한다.In addition, the adjacent block includes blocks adjacent to the first, lower, left, and right directions of the first block.

또한, 상기 이미지 복원 조건을 결정하는 단계는, 렌즈로부터 기준 포인트 스프레드 함수를 도출하는 단계와, 상기 도출한 기준 포인트 스프레드 함수를 이용하여 상기 플레어 영역에 적용될 보정 포인트 스프레드 함수를 산출하는 단계를 포함한다.The determining of the image restoration condition may include deriving a reference point spread function from the lens and calculating a correction point spread function to be applied to the flare area using the derived reference point spread function .

또한, 상기 플레어 영역에는, 상기 산출한 보정 포인트 스프레드 함수가 적용되고, 상기 플레어 영역을 제외한 나머지 영역에는, 상기 도출한 기준 포인트 스프레드 함수가 적용된다.The calculated correction point spread function is applied to the flare area, and the derived reference point spread function is applied to the remaining area except for the flare area.

또한, 상기 이미지 복원 조건을 결정하는 단계는, 상기 제 1 블록과의 인접 정도에 따라 상기 각각의 인접 블록에 적용될 보정 포인트 스프레드 함수를 각각 산출하는 단계를 포함한다.In addition, the step of determining the image restoration condition may include calculating a correction point spread function to be applied to each of the adjacent blocks according to a degree of proximity to the first block.

또한, 상기 인접 블록은, 상기 제 1 블록으로부터 첫 번째 인접한 제 1 인접 블록 내지 N 번째 인접한 제 N 인접 블록을 포함하며, 상기 제 1 인접 블록 내지 제 N 인접 블록에 대해 산출되는 보정 포인트 스프레드 함수는 서로 다르다.Also, the adjacent block includes a first adjacent block from the first block to an Nth adjacent Nth adjacent block, and the correction point spread function calculated for the first adjacent block to the Nth adjacent block includes They are different.

또한, 상기 제 1 인접 블록 내지 제 N 인접 블록에 대해 산출되는 보정 포인트 스프레드 함수 중 상기 제 1 인접 블록에 대해 산출된 보정 포인트 스프레드 함수가 제일 큰 값을 갖는다.In addition, a correction point spread function calculated for the first adjacent block among the correction point spread functions calculated for the first adjacent block to the Nth adjacent block has a largest value.

또한, 상기 제 1 인접 블록 내지 제 N 인접 블록에 대해 산출되는 보정 포인트 스프레드 함수는, 상기 제 1 블록에서 멀어질수록 크기가 감소한다.The correction point spread function calculated for the first adjacent block to the Nth adjacent block decreases in size as the distance from the first block increases.

또한, 상기 이미지를 복원하는 단계는, 상기 각각의 인접 블록에 대해 산출된 보정 포인트 스프레드 함수 및 상기 기준 포인트 스프레드 함수를 이용하여 콘볼류션을 수행하는 단계를 포함한다.In addition, the step of reconstructing the image may include performing convolution using the correction point spread function calculated for each adjacent block and the reference point spread function.

또한, 상기 플레어 영역을 세분화하는 단계를 더 포함하며, 상기 보정 포인트 스프레드 함수는, 상기 세분화된 각각의 블록에 대해 산출된다.Further, the method further comprises refining the flare region, wherein the correction point spread function is calculated for each of the subdivided blocks.

한편, 실시 예에 따른 이미지 처리 장치는 렌즈; 상기 렌즈를 통해 들어온 빛을 전기적인 이미지로 변환하는 이미지 센서; 상기 이미지 센서를 통해 변환된 이미지를 복수의 블록으로 분할하고, 상기 분할된 각각의 블록에 대한 밝기 정보를 이용하여 플레어 영역을 검출하며, 상기 검출된 플레어 영역과, 그 이외의 영역에 서로 다른 이미지 복원 조건을 적용하여 원 이미지를 복원하는 영상 처리부; 및 상기 플레어 영역에 적용될 이미지 복원 조건을 설정하고, 상기 설정된 이미지 복원 조건에 따라 상기 이미지의 복원이 이루어지도록 제어하는 제어부를 포함하며, 상기 제어부는, 상기 플레어 영역과, 상기 플레어 영역을 제외한 그 이외의 영역에 적용될 이미지 복원 조건을 서로 다르게 설정한다.Meanwhile, an image processing apparatus according to an embodiment includes a lens; An image sensor for converting light received through the lens into an electrical image; Wherein the controller is configured to divide the image converted by the image sensor into a plurality of blocks, detect a flare area using the brightness information of each of the divided blocks, An image processor for restoring the original image by applying restoration conditions; And a control unit for setting an image restoration condition to be applied to the flare area and controlling the restoration of the image according to the set image restoration condition, wherein the control unit controls the flare area, the flare area, The image restoration conditions to be applied to the area of the image are different from each other.

또한, 상기 영상 처리부는, 상기 이미지를 복수의 블록으로 분할하는 영역 분할부와, 상기 영역 분할부를 통해 분할된 블록별 밝기 정보를 획득하는 휘도 레벨 판단부와, 상기 판단된 밝기 정보를 이용하여 상기 복수의 블록 중 플레어가 발생한 프레어 영역을 검출하는 플레어 영역 검출부와, 상기 검출된 플레어 영역과, 그 이외의 영역에 서로 다른 이미지 복원 조건을 적용하여 원래의 이미지를 복원하는 이미지 복원부를 포함한다.The image processing unit may further include an area dividing unit dividing the image into a plurality of blocks, a brightness level determining unit that obtains brightness information of each of the blocks divided through the area dividing unit, A flare region detecting unit for detecting a flare region in which a flare occurs among the plurality of blocks; and an image restoring unit for restoring an original image by applying different image restoring conditions to the detected flare region and other regions .

또한, 상기 플레어 영역 검출부는, 상기 획득한 밝기 정보를 이용하여, 상기 각각의 블록 중 255 레벨을 가지는 픽셀 수가 기설정된 기준치 이상이 되는 제 1 블록을 확인하고, 상기 확인된 제 1 블록의 인접 블록을 상기 플레어 영역으로 검출한다.The flare area detecting unit may identify the first block in which the number of pixels having 255 levels in each of the blocks is equal to or greater than a preset reference value using the obtained brightness information, Is detected as the flare area.

또한, 상기 플레어 영역 검출부는, 상기 제 1 블록에서부터 N번째까지 위치한 인접 블록을 플레어 영역으로 검출한다.Further, the flare area detecting unit detects the adjacent block located from the first block to the N-th position as a flare area.

또한, 상기 인접 블록은, 상기 제 1 블록의 상, 하, 좌 및 우측 방향에 인접해 있는 블록을 포함한다.In addition, the adjacent block includes blocks adjacent to the first, lower, left, and right directions of the first block.

또한, 상기 제어부는, 상기 렌즈로부터 기준 포인트 스프레드 함수를 도출하고, 상기 도출한 기준 포인트 스프레드 함수를 이용하여 상기 플레어 영역에 적용될 보정 포인트 스프레드 함수를 산출한다.Also, the control unit derives a reference point spread function from the lens, and calculates a correction point spread function to be applied to the flare area using the derived reference point spread function.

또한, 상기 제어부는, 상기 플레어 영역에 상기 산출한 보정 포인트 스프레드 함수를 적용하고, 상기 플레어 영역을 제외한 나머지 영역에 상기 도출한 기준 포인트 스프레드 함수가 적용하여 이미지 복원이 이루어지도록 한다.Also, the control unit applies the calculated correction point spread function to the flare area, and applies the derived reference point spread function to the remaining area excluding the flare area so that image restoration is performed.

또한, 상기 제어부는, 상기 제 1 블록과의 인접 정도에 따라 상기 플레어 영역으로 지정된 각각의 인접 블록에 적용될 보정 포인트 스프레드 함수를 산출한다.Also, the control unit calculates a correction point spread function to be applied to each adjacent block specified as the flare area according to the degree of proximity to the first block.

또한, 상기 인접 블록은, 상기 제 1 블록으로부터 첫 번째 인접한 제 1 인접 블록 내지 N 번째 인접한 제 N 인접 블록을 포함하며, 상기 제 1 인접 블록 내지 제 N 인접 블록에 대해 산출되는 보정 포인트 스프레드 함수는 서로 다르다.Also, the adjacent block includes a first adjacent block from the first block to an Nth adjacent Nth adjacent block, and the correction point spread function calculated for the first adjacent block to the Nth adjacent block includes They are different.

또한, 상기 제 1 인접 블록 내지 제 N 인접 블록에 대해 산출되는 보정 포인트 스프레드 함수 중 상기 제 1 인접 블록에 대해 산출된 보정 포인트 스프레드 함수가 제일 큰 값을 갖는다.In addition, a correction point spread function calculated for the first adjacent block among the correction point spread functions calculated for the first adjacent block to the Nth adjacent block has a largest value.

또한, 상기 제 1 인접 블록 내지 제 N 인접 블록에 대해 산출되는 보정 포인트 스프레드 함수는, 상기 제 1 블록에서 멀어질수록 크기가 감소한다.The correction point spread function calculated for the first adjacent block to the Nth adjacent block decreases in size as the distance from the first block increases.

또한, 상기 이미지 복원부는, 상기 각각의 인접 블록에 대해 산출된 보정 포인트 스프레드 함수 및 상기 기준 포인트 스프레드 함수를 이용하여 콘볼류션을 수행한다.The image restoration unit performs convolution using the correction point spread function calculated for each adjacent block and the reference point spread function.

또한, 상기 영역 분할부는, 상기 플레어 영역이 검출되면, 상기 검출된 플레어 영역을 세분화된 블록으로 재분할하고, 상기 제어부는, 상기 재분할된 블록에 각각 적용될 보정 포인트 스프레드 함수를 산출한다.When the flare region is detected, the region dividing unit re-divides the detected flare region into subdivided blocks, and the control unit calculates a correction point spread function to be applied to each of the subdivided blocks.

실시 예에 의하면, 영상을 분석하여 플레어가 발생한 영역을 검출하고, 그에 따라 서로 다른 포인트 스프레드 함수를 적용하여 상기 플레어를 제거함으로써, 이미지의 화질 열화 없이 원 이미지를 용이하게 복원할 수 있다.According to the embodiment, the original image can be easily restored without deteriorating the image quality by analyzing the image and detecting the area where the flare occurs, and by applying different point spread functions to remove the flare.

도 1 내지 3은 종래 기술에 따라 발생하는 플레어 현상을 설명하기 위한 도면이다.
도 4는 실시 예에 따른 이미지 처리 장치를 나타낸 도면이다.
도 5는 도 4에 도시된 영상 처리부(130)의 상세 구성도이다.
도 6은 실시 예에 따른 이미지 복원 원리를 설명하기 위한 도면이다.
도 7 내지 12는 실시 예에 따른 이미지 복원 과정을 설명하기 위한 도면이다.
도 13 내지 15는 실시 예에 따른 영상 처리 장치의 영상 처리 방법을 단계별로 설명하는 흐름도이다.
Figs. 1 to 3 are views for explaining flare phenomena occurring according to the prior art.
4 is a diagram showing an image processing apparatus according to an embodiment.
5 is a detailed configuration diagram of the image processing unit 130 shown in FIG.
FIG. 6 is a view for explaining the principle of image restoration according to the embodiment.
FIGS. 7 to 12 are views for explaining an image restoration process according to the embodiment.
13 to 15 are flowcharts for explaining the image processing method of the image processing apparatus according to the embodiment step by step.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the invention. Thus, those skilled in the art will be able to devise various apparatuses which, although not explicitly described or shown herein, embody the principles of the invention and are included in the concept and scope of the invention. Furthermore, all of the conditional terms and embodiments listed herein are, in principle, only intended for the purpose of enabling understanding of the concepts of the present invention, and are not to be construed as limited to such specifically recited embodiments and conditions do.

또한, 본 발명의 원리, 관점 및 실시 예들뿐만 아니라 특정 실시 예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.It is also to be understood that the detailed description, as well as the principles, aspects and embodiments of the invention, as well as specific embodiments thereof, are intended to cover structural and functional equivalents thereof. It is also to be understood that such equivalents include all elements contemplated to perform the same function irrespective of the currently known equivalents as well as the equivalents to be developed in the future, i.e., the structure.

따라서, 예를 들어, 본 명세서의 블록도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, it should be understood that the block diagrams herein illustrate conceptual aspects of exemplary circuits embodying the principles of the invention. Similarly, all flowcharts, state transition diagrams, pseudo code, and the like are representative of various processes that may be substantially represented on a computer-readable medium and executed by a computer or processor, whether or not the computer or processor is explicitly shown .

프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.The functions of the various elements shown in the figures, including the functional blocks depicted in the processor or similar concept, may be provided by use of dedicated hardware as well as hardware capable of executing software in connection with appropriate software. When provided by a processor, the functions may be provided by a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지 관용의 다른 하드웨어도 포함될 수 있다.Also, the explicit use of terms such as processor, control, or similar concepts should not be interpreted exclusively as hardware capable of running software, and may be used without limitation as a digital signal processor (DSP) (ROM), random access memory (RAM), and non-volatile memory. Other hardware may also be included.

도 4는 실시 예에 따른 이미지 처리 장치를 나타낸 도면이다.4 is a diagram showing an image processing apparatus according to an embodiment.

도 4를 참조하면, 이미지 처리 장치는 렌즈(110), 이미지 센서부(120), 영상 처리부(130), 표시부(140), 입력부(150), 저장부(160) 및 제어부(170)를 포함한다.4, the image processing apparatus includes a lens 110, an image sensor unit 120, an image processing unit 130, a display unit 140, an input unit 150, a storage unit 160, and a control unit 170 do.

렌즈(110)는 피사체의 광학상이 이미지 센서부(120)에 맺히도록 한다.The lens 110 allows the optical image of the subject to be formed on the image sensor unit 120. [

렌즈(110)는 줌 렌즈(도시하지 않음)와 이미지 센서부(120)에 맺혀지는 광학상의 초점을 맞추기 위해 광축 방향으로 이동 가능한 포커스 렌즈(도시하지 않음)를 포함하여 구성될 수 있다.The lens 110 may include a zoom lens (not shown) and a focus lens (not shown) movable in the direction of the optical axis to focus an optical image formed on the image sensor unit 120.

여기에서, 렌즈(110)는 휴효 구경이 크고, 이에 따라 초점거리가 짧은 광학적 특성을 가진 렌즈일 수 있다. 즉, 에프 넘버(F NUMBER)가 작은 렌즈일 수 있고, 또한 별도의 렌즈 설계가 적용되지 않은 일반적인 렌즈일 수도 있다.Here, the lens 110 may be a lens having a large aperture stop diameter, and thus having an optical characteristic with a short focal length. That is, it may be a lens having a small F number, or may be a general lens without a separate lens design.

이때, 렌즈(110)는 사용자가 촬영하고자 하는 피사체에 대한 영상을 획득한다.At this time, the lens 110 acquires an image of a subject to be photographed by the user.

보다 구체적으로, 렌즈(110)는 적어도 한 면이 회절광학소자로 이루어진 오목 렌즈로 구성되는 제 1 렌즈 그룹과, 적어도 한 면이 회절광학소자로 이루어진 볼록 렌즈로 구성되는 제 2 렌즈 그룹을 포함할 수 있다.More specifically, the lens 110 includes a first lens group including at least one surface composed of a diffractive optical element and a second lens group including at least one surface composed of a convex lens composed of a diffractive optical element .

상기 제 1 렌즈 그룹은 넓은 시야각 및 충분한 후 초점 거리(BFL:Back Focal Length)를가지도록 음(-)의 파워를 갖는 오목 렌즈이고, 그 한 면은 비구면이고, 적어도 한 면은 회절광학소자가 설계되는데, 회절광학소자가 형성된 면의 분산이 음의 부호를 가지기 때문에 축 상의 색수차를 손쉽게 보정하면서도 파워의 일부를 부담함으로 렌즈의 형상을 어느 정도 완만히 가져갈 수 있다.The first lens group is a concave lens having negative power so as to have a wide viewing angle and a sufficient back focal length (BFL), one surface of which is an aspherical surface, and at least one surface of the diffractive optical element Since the dispersion on the surface on which the diffractive optical element is formed has a negative sign, the chromatic aberration on the axis can be corrected easily, but the shape of the lens can be taken to some extent by imposing a part of the power.

또한, 볼록 렌즈 형상의 제 2 렌즈 그룹은, 양(+)의 파워를 갖고, 적어도 한 면이 비구면이고, 또한 적어도 한 면이 회절광학소자로 구성되어 상기 오목 렌즈 형상의 제 1 렌즈 그룹에서 입사된 영상 정보를 수렴시켜준다.The second lens group having a convex lens shape has a positive power, at least one surface is an aspherical surface, and at least one surface is composed of a diffractive optical element, and the first lens group of the concave lens shape Converge the acquired image information.

이미지 센서부(120)는 CMOS(Complementary Metal-Oxide Semiconductor)나 CCD(Charge Coupled Device)로 구성될 수 있다.The image sensor unit 120 may be a Complementary Metal-Oxide Semiconductor (CMOS) or a Charge Coupled Device (CCD).

이미지 센서부(120)는 다수의 광 검출기들이 각각의 화소로서 집적된 형태이며, 피사체의 영상 정보를 전기적 데이터로 변환시켜 출력한다.The image sensor unit 120 is a form in which a plurality of photodetectors are integrated as respective pixels, and converts image information of a subject into electrical data and outputs the electrical data.

즉, 이미지 센서부(120)는 렌즈(110)를 통과한 피사체의 이미지를 감지한다. 감지된 이미지는 원격지에 있는 사용자에게 전송될 수 있다.That is, the image sensor unit 120 senses an image of a subject passing through the lens 110. The sensed image may be transmitted to a user at a remote location.

이미지 센서부(120)는 렌즈(110)를 통하여 입력되는 광량을 축적하고, 그 축적된 광량에 따라 상기 렌즈(110)에서 촬영된 영상을 수직 동기신호에 맞추어 출력한다.The image sensor unit 120 accumulates the amount of light input through the lens 110 and outputs the image photographed by the lens 110 according to the stored amount of light according to the vertical synchronization signal.

이미지 획득은 피사체로부터 반사되어 나오는 빛을 전기적인 신호로 변환시켜주는 상기 이미지 센서부(120)에 의해 이루어진다.Image acquisition is performed by the image sensor unit 120 that converts light reflected from a subject into an electrical signal.

이미지 센서부(120)를 이용하여 컬러 영상을 얻기 위해서는 컬러 필터를 필요로 하며, 대부분 CFA(Color Filter Array)라는 필터(도시되지 않음)를 채용하고 있다. CFA는 한 픽셀마다 한 가지 컬러를 나타내는 빛만을 통과시키며, 규칙적으로 배열된 구조를 가지며, 배열 구조에 따라 여러 가지 형태를 가진다.In order to obtain a color image using the image sensor unit 120, a color filter is required, and a filter (not shown) called CFA (Color Filter Array) is employed in most cases. CFA passes only light representing one color per pixel, has a regularly arranged structure, and has various forms according to the arrangement structure.

영상 처리부(130)는 상기 이미지 센서부(120)로부터의 전기신호를 전달받는다.The image processor 130 receives an electric signal from the image sensor unit 120.

상기 전기 신호는, 결상된 이미지의 이미지 값을 포함하고 있으며, 이에 따라 영상 처리부(130)는 상기 이미지 값을 신호처리한다.The electric signal includes an image value of an image formed, and the image processor 130 processes the image value.

즉, 영상 처리부(130)는 상기 이미지 센서부(120)를 통해 획득된 이미지를 프레임 단위로 분석하고, 그에 따라 상기 이미지에 포함된 플레어 영역을 제거한 원 영상을 복원한다.That is, the image processing unit 130 analyzes the image obtained through the image sensor unit 120 on a frame-by-frame basis, and restores the original image from which the flare area included in the image is removed.

이를 위해, 영상 처리부(130)는 상기 이미지 센서부(120)에서 획득된 이미지로부터 플레어 영역을 검출하고, 그에 따라 상기 플레어 영역의 영상 처리 조건을 변경하여, 상기 플레어 영역을 제거한다.To this end, the image processing unit 130 detects a flare region from the image acquired by the image sensor unit 120, and changes the image processing condition of the flare region, thereby removing the flare region.

이에 따라, 먼저 영상 처리부(130)는 상기 이미지를 복수의 블록으로 분할한다. 이때, 상기 분할되는 블록의 수는 실시 예에 따라 달라질 수 있으며, 실시 예에서는 100개의 블록으로 분할함을 예로 하여 설명하기로 한다.Accordingly, the image processor 130 divides the image into a plurality of blocks. In this case, the number of blocks to be divided may vary according to the embodiment. In the embodiment, the number of blocks is divided into 100 blocks.

상기 이미지가 복수의 블록으로 분할되면, 상기 영상 처리부(130)는 상기 분할된 블록별로 픽셀의 휘도 레벨을 판단한다. 이때, 상기 휘도 레벨은 그레이 레벨일 수 있다.If the image is divided into a plurality of blocks, the image processing unit 130 determines a luminance level of the pixels for each of the divided blocks. At this time, the brightness level may be a gray level.

이때, 상기 플레어 영역은 백열등과 같은 물체가 촬영된 영역 및 상기 영역과 인접한 인접 영역을 포함하며, 상기 플레어 영역 중 실질적은 플레어가 발생한 영역은 상기 물체가 촬영된 영역의 주변 영역, 다시 말해서 상기 물체가 촬영된 영역의 가장 자리 영역에 해당된다.In this case, the flare area includes an area where an object such as an incandescent lamp is photographed and an adjacent area adjacent to the area, and an area where a substantial flare occurs in the flare area is a peripheral area of the area where the object is photographed, Corresponds to the edge area of the photographed area.

한편, 상기 플레어 영역은, 상기와 같이 백열등과 같은 물체가 촬영된 영역의 인접 영역이며, 상기 물체가 촬영된 영역의 휘도 레벨은 최대 휘도 레벨인 255 레벨을 가진다.On the other hand, the flare area is an adjacent area of an area where an object such as an incandescent lamp is photographed as described above, and the luminance level of the area in which the object is photographed has a maximum luminance level of 255 levels.

다시 말해서, 상기 백열등과 같은 물체가 촬영된 영역은 255 영역이라 할 수 있으며, 상기 플레어 영역은 상기 255 영역의 인접 영역이다. 이때, 상기 인접 영역은 상기 255 영역의 좌측 영역, 우측 영역, 상측 영역 및 하측 영역을 포함할 수 있다.In other words, the area where the object such as the incandescent lamp is photographed can be referred to as the 255 area, and the flare area is the area adjacent to the 255 area. At this time, the adjacent region may include a left region, a right region, an upper region, and a lower region of the 255 region.

또한, 상기 인접 영역은, 상기 255 영역의 바로 옆에 위치한 블록만을 포함할 수 있으며, 이와 다르게 상기 255 영역으로부터 A 번째 위치한 블록까지 인접 영역에 포함될 수 있다.In addition, the adjacent region may include only the block located immediately adjacent to the 255 region, and may be included in the adjacent region from the 255 region to the A-th located block.

상기 인접 영역에 대한 정의는, 상기 이미지의 분할 조건에 의해 달라질 수 있으며, 상기 이미지를 보다 적은 블록으로 분할한 경우에는 상기 인접 영역도 적어질 수 있으며, 상기 이미지를 많은 블록으로 분할한 경우에는 상기 인정 영역도 많아질 것이다.The definition of the adjacent region may be changed according to a division condition of the image. If the image is divided into a smaller number of blocks, the adjacent region may be reduced. If the image is divided into many blocks, The area of recognition will also increase.

예를 들어, 상기 이미지를 10개의 블록으로 분할한 경우, 상기 인접 영역은 상기 255 영역의 바로 옆에 위치한 블록만을 포함할 수 있으며, 이와 다르게 상기 이미지를 100개의 블록으로 분할한 경우, 상기 인접 영역은 상기 255 영역과 인접한 5번째 블록까지 포함될 수 있다.For example, when the image is divided into 10 blocks, the adjacent region may include only blocks located immediately adjacent to the 255 region. Otherwise, if the image is divided into 100 blocks, May be included up to the fifth block adjacent to the 255 area.

한편, 상기 플레어 영역을 판단하는 기준은, 255 레벨을 가지는 물체의 연속성을 판단하고, 그에 따라 상기 연속성이 100 픽셀 이상을 가지지 않는 경우, 다시 말해서 실제 255 레벨을 가지는 물체라도 100 픽셀 이상 255 레벨을 연속적으로 가지지 않는다면, 상기 255 레벨을 가지는 영역의 중심점으로부터 인접 영역을 상기 플레어 영역으로 판단할 수 있다.On the other hand, as a criterion for determining the flare area, if the continuity of the object having the 255 level is determined, and the continuity does not have 100 pixels or more, that is, It is possible to judge the adjacent area as the flare area from the center point of the area having the 255 level, if not continuously.

이와 다르게, 255 레벨을 가지는 픽셀 수가 기설정된 수 이상 존재하는 블록이 있다면, 상기 블록의 인접 블록을 상기 플레어 영역으로 판단할 수 있다.Alternatively, if there is a block in which the number of pixels having 255 levels is equal to or greater than a predetermined number, an adjacent block of the block may be determined as the flare area.

이에 따라, 상기 영상 처리부(130)는 상기와 같은 기준으로 255 영역을 판단하고, 그에 따라 255 영역이 존재하면, 상기 255 영역의 인접 블록을 플레어 영역으로 판단한다.Accordingly, the image processing unit 130 determines the 255 area based on the above-described criteria, and if the 255 area exists, the image processor 130 determines the adjacent block of the 255 area as the flare area.

또한, 상기 플레어 영역의 판단 기준이, 255 영역으로부터 5번째 블록까지 포함된다고 가정하면, 상기 플레어 영역은, 상기 255 영역과의 인접 정도가 높은 순으로 제 1 인접 블록, 제 2 인접 블록, 제 3 인접 블록, 제 4 인접 블록 및 제 5 인접 블록을 포함할 수 있다.In addition, assuming that the flare area includes a 255th to a 5th block, the flare area may include a first neighboring block, a second neighboring block, a third neighboring block, An adjacent block, a fourth adjacent block, and a fifth adjacent block.

이하, 영상 처리부(130)는 상기 플레어 영역에 포함된 인접 블록들에 적용될 포인트 스프레드 함수를 수신하고, 상기 수신한 포인트 스프레드 함수를 적용하여 상기 인접 블록에 대한 복원 처리를 행한다.Hereinafter, the image processing unit 130 receives a point spread function to be applied to adjacent blocks included in the flare area, and performs a restoration process on the adjacent block by applying the received point spread function.

이때, 상기 제 1 내지 5 인접 블록에 적용되는 포인트 스프레드 함수는 서로 다르며, 그에 따라 상기 255 영역과 인접함에 따라 상기 적용되는 포인트 스프레드 함수는 증가할 것이다.At this time, the point spread functions applied to the first to fifth adjacent blocks are different from each other, and accordingly, the applied point spread function will increase according to the neighboring areas.

예를 들어, 상기 렌즈의 광학적 특성에 따른 포인트 스프레드 함수가 1이라고 가정하면, 상기 255 영역에 적용되는 포인트 스프레드 함수는 1일 수 있고, 상기 제 1 인접 블록에 적용되는 포인트 스프레드 함수는 5일 수 있고, 제 2 인접 블록에 적용되는 포인트 스프레드 함수는 4일 수 있고, 상기 제 3 인접 블록에 적용되는 포인트 스프레드 함수는 3일 수 있고, 제 4 인접 블록에 적용되는 포인트 스프레드 함수는 2일 수 있으며, 제 1 인접 블록에 적용되는 포인트 스프레드 함수는 1일 수 있다. 또한, 상기 이미지 내에서 상기 255 영역 및 플레어 영역을 제외한 나머지 영역에 적용되는 포인트 스프레드 함수는 1일 것이다.For example, assuming that the point spread function according to the optical characteristics of the lens is 1, the point spread function applied to the 255 area may be 1, and the point spread function applied to the first adjacent block may be 5 , The point spread function applied to the second adjacent block may be 4, the point spread function applied to the third adjacent block may be 3, and the point spread function applied to the fourth adjacent block may be 2 , The point spread function applied to the first adjacent block may be one. Also, the point spread function applied to the 255 area and the remaining area excluding the flare area in the image will be 1.

즉, 255 영역과 인접할수록 빛의 포화 정도가 심해지므로, 실시 예에서는 상기 255 영역과 인접할수록 높은 배수의 포인트 스프레드 함수를 적용하여, 상기 포화되기 이전 상태의 이미지가 복원될 수 있도록 한다.That is, since the degree of saturation of light becomes worse as it gets closer to the 255 area, in the embodiment, the point spread function having a higher multiple adjacent to the 255 area is applied so that the image before saturation can be restored.

이에 더하여, 영상 처리부(130)는 보간(interpolation) 처리, 감마 보정(gamma correction), 윤곽 강조(edge enhancement), 자동 노출(auto exposure, AU) 제어, 자동 백색조정(auto white balance, AWB) 제어 및 디지털 줌(digital zoom) 중의 적어도 하나의 기능을 더 수행할 수 있다.In addition, the image processing unit 130 may perform an interpolation process, a gamma correction, an edge enhancement, an auto exposure (AU) control, an auto white balance (AWB) And a digital zoom function.

표시부(140)는 후술할 제어부(170)의 제어에 따라 촬영된 이미지를 표시하며, 사진 촬영 시 필요한 설정 화면이나, 사용자의 동작 선택을 위한 화면을 표시한다.The display unit 140 displays the photographed image under the control of the control unit 170, which will be described later, and displays a setting screen required for taking a picture or a screen for selecting a user's action.

또한, 실시 예에 따라 프리뷰 키 입력 시, 프리뷰 화면을 표시하며, 촬영 키 입력 시 팝-업 되는 팝-업 화면이나, 미리 설정된 애니메이션 혹은 이미지를 표시한다.Also, according to the embodiment, when a preview key is input, a preview screen is displayed, and a pop-up screen popped up at the time of shooting key input, or a predetermined animation or image is displayed.

입력부(150)는 사용자의 입력을 수신하여 제어부(170)로 전달한다.The input unit 150 receives a user input and transmits the input to the controller 170.

상기 표시부(140)가 터치 스크린으로 구현된 경우에는 상기 표시부(140)가 동시에 상기 입력부(150)로 동작할 수 있다.When the display unit 140 is implemented as a touch screen, the display unit 140 may operate as the input unit 150 at the same time.

실시 예에 따라, 입력부(150)는 촬영을 수행하기 위한 촬영 키와, 프리뷰 화면을 표시하기 위한 프리뷰 키를 더 포함할 수 있다.According to the embodiment, the input unit 150 may further include a photographing key for photographing and a preview key for displaying a preview screen.

저장부(160)는 상기 이미지 처리 장치(100)가 동작하는데 필요한 데이터를 저장한다.The storage unit 160 stores data necessary for the image processing apparatus 100 to operate.

또한, 실시 예에 따라 저장부(160)는 촬영 키 입력 시, 상기 표시부(140)를 통해 표시할 팝-업 화면이나 애니메이션 혹은 영상을 저장한다.In addition, the storage unit 160 stores a pop-up screen, an animation, or an image to be displayed through the display unit 140 when a shooting key is input.

저장부(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The storage unit 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory) RAM, ROM (EEPROM, etc.), and the like.

제어부(170)는 상기 이미지 처리 장치의 각 구성을 제어한다.The control unit 170 controls each configuration of the image processing apparatus.

실시 예에서, 제어부(170)는 상기 영상 처리부(130)에 의해 플레어가 제거된 이미지가 출력되도록 하고, 그에 따라 상기 플레어가 제거된 영상이 상기 표시부(140)를 통해 표시되도록 한다.In an embodiment, the control unit 170 causes the image processing unit 130 to output an image in which the flare is removed, so that the image in which the flare is removed is displayed through the display unit 140.

이를 위해, 제어부(170)는 상기 영상 처리부(130)를 통해 확인한 플레어 영역에 대한 이미지 복원 조건을 결정하고, 상기 결정한 이미지 복원 조건을 이용하여 상기 플레어 영역에 대한 이미지 복원이 이루어지도록 한다.For this purpose, the controller 170 determines an image restoration condition for the flare area confirmed through the image processing unit 130, and restores the image of the flare area using the determined image restoration condition.

이하, 상기 이미지 복원 과정에 대해 보다 구체적으로 설명하기로 한다.Hereinafter, the image restoration process will be described in more detail.

도 5는 도 4에 도시된 영상 처리부(130)의 상세 구성도이다.5 is a detailed configuration diagram of the image processing unit 130 shown in FIG.

도 5를 참조하면, 영상 처리부(130)는 영역 분할부(131), 휘도 레벨 판단부(132), 플레어 영역 검출부(133), 이미지 복원부(134) 및 이미지 출력부(135)를 포함한다.5, the image processing unit 130 includes an area dividing unit 131, a brightness level determining unit 132, a flare area detecting unit 133, an image restoring unit 134, and an image output unit 135 .

영역 분할부(131)는 상기 이미지 센서부(120)를 통해 출력되는 이미지를 수신하고, 상기 수신된 이미지를 기설정된 분할 조건에 따라 분할한다.The region dividing unit 131 receives the image output through the image sensor unit 120 and divides the received image according to a predetermined division condition.

상기 분할 조건은, 상기 이미지의 해상도에 따라 달라질 수 있다.The segmentation condition may vary depending on the resolution of the image.

상기 분할되는 블록의 수가 증가하면, 그에 따른 계산량을 증가하지만 더욱 정확한 플레어 제거를 수행할 수 있다.When the number of divided blocks increases, the amount of calculation is increased, but more accurate flare removal can be performed.

휘도 레벨 판단부(132)는 상기 영역 분할부(131)를 통해 분할된 이미지를 수신하고, 상기 분할된 블록별로 픽셀의 휘도 레벨을 확인한다.The brightness level determining unit 132 receives the divided image through the area dividing unit 131, and confirms the brightness level of the pixel for each of the divided blocks.

이때, 상기 휘도 레벨은 히스토그램 분석을 통해 파악될 수 있다.At this time, the brightness level can be grasped through histogram analysis.

여기서, 히스토그램은 빈도 수, 피크 개수, 피크 거리, 피크 폭을 포함한다. 일반적으로 히스토그램은 영상 안에서 픽셀들에 대한 명암 값의 분포를 나타낸 것으로, 밝은 픽셀과 어두운 픽셀이 분포할 때 그 범위와 값을 표현한 것으로, 이것을 그래프로 나타낸 것을 히스토그램 그래프라고 하며, 예를 들면 256 그레이 레벨 영상에서 명암 값의 범위는 0 내지 255의 값을 갖고, 각 명암 값, 즉 레벨의 빈도 수가 그래프의 높이로 나타낸다. 히스토그램은 영상의 많은 정보를 갖고 있으며, 다양한 영상 처리에 이용된다.Here, the histogram includes the frequency number, the number of peaks, the peak distance, and the peak width. Generally, a histogram shows the distribution of brightness values for pixels in an image. When a bright pixel and a dark pixel are distributed, the range and value are expressed. A histogram is called a histogram graph. For example, 256 gray In the level image, the range of brightness values has a value from 0 to 255, and the number of brightness values, that is, the frequency of the level, is represented by the height of the graph. The histogram has a lot of image information and is used for various image processing.

플레어 영역 검출부(133)는 상기 휘도 레벨 판단부(132)를 통해 검출된 블록별 휘도 레벨을 기준으로 플레어 영역을 검출한다.The flare area detecting unit 133 detects the flare area with reference to the brightness level of each block detected through the brightness level determining unit 132. [

예를 들어, 플레어 영역 검출부(133)는 255 레벨을 갖는 픽셀이 기설정된 기준 범위를 초과한다면, 해당 블록을 255 영역으로 결정할 수 있고, 그에 따라 상기 255 영역의 인접 영역을 플레어 영역으로 검출할 수 있다.For example, if the pixel having the 255 level exceeds the predetermined reference range, the flare area detecting unit 133 can determine the corresponding block as the 255 area and accordingly detect the adjacent area of the 255 area as the flare area have.

이미지 복원부(134)는 상기 플레어 영역이 검출되면, 상기 검출된 플레어 영역에 대하여 서로 다른 포인트 스프레드 함수를 적용하여 이미지 복원을 수행한다.When the flare area is detected, the image restoring unit 134 performs image restoration by applying a different point spread function to the detected flare area.

상기 플레어 영역에 적용될 포인트 스프레드 함수는 제어부(170)에 의해 설정되며, 이에 대한 구체적인 설명은 후술하기로 한다.The point spread function to be applied to the flare area is set by the control unit 170, and a detailed description thereof will be described later.

이미지 출력부(135)는 상기 이미지 복원부(134)를 통해 복원된 이미지를 출력한다.The image output unit 135 outputs the restored image through the image restoration unit 134.

도 6은 실시 예에 따른 이미지 복원 원리를 설명하기 위한 도면이다.FIG. 6 is a view for explaining the principle of image restoration according to the embodiment.

도 6을 참조하면, 원 이미지(f[x, y])가 특정 포인트 스프레드 함수(h[x, y])에 따라 렌즈를 통과하면, 촬영 이미지(g[x, y])가 생성된다.6, when the original image f [x, y] passes through the lens according to a specific point spread function h [x, y], a captured image g [x, y] is generated.

이때, 렌즈로부터 포인트 스프레드 함수의 역수(

Figure pat00001
)를 산출하여, 입력(g[x, y])에 대한 콘볼루션 연산을 취득하면 원 영상을 복원할 수 있다.At this time, the reciprocal of the point spread function (
Figure pat00001
), And acquires a convolution operation on the input g [x, y], thereby restoring the original image.

이때, 카메라 센서가 포화되기 전에는 상기와 같은 콘볼루션을 수행함에 따라 원 영상을 정확히 복원할 수 있다.At this time, before the camera sensor is saturated, the original image can be accurately reconstructed by performing the convolution as described above.

그러나, 상기 카메라 센서가 포화된 이후에는 상기와 같은 콘볼루션을 수행하여도, 이미 센서에서 포화가 이루어졌기 때문에, 마치 포인트 스프레드 함수가 상기 h[x, y]이 아닌 다른 값으로 적용된 것과 마찬가지이며, 이에 따라 상기

Figure pat00002
를 적용한다 하더라도 정확한 원 이미지를 복원할 수 없다. 이는 강한 광원에서 잡음 레벨이 높아지고 화질이 떨어지는 원인으로 작용한다.However, after the camera sensor is saturated, even if the convolution is performed as described above, since the sensor has already saturated, it is as if the point spread function is applied to a value other than h [x, y] , And accordingly,
Figure pat00002
The correct original image can not be restored. This causes the noise level to rise in a strong light source and cause the image quality to deteriorate.

이에 따라, 실시 예에서는 포화가 이루어져 플레어 영역이 발생하였다면, 상기 플레어 영역은 원래의 포인트 스프레드 함수와 다른 포인트 스프레드 함수가 적용된 것으로 확인하고, 그에 따라 상기 플레어 영역에 대해서는 상기 원 이미지 복원을 위해 적용할 포인트 스프레드 함수를 보정한다.Accordingly, in the embodiment, if the flare area is generated by saturation, it is confirmed that the flare area is applied to a point spread function different from the original point spread function, and the flare area is applied to the flare area for the original image restoration Correct the point spread function.

이하, 상기 이미지 복원 과정에 대해 첨부된 도면을 참조하여 보다 구체적으로 설명하기로 한다.Hereinafter, the image restoration process will be described in detail with reference to the accompanying drawings.

도 7 내지 12는 실시 예에 따른 이미지 복원 과정을 설명하기 위한 도면이다.FIGS. 7 to 12 are views for explaining an image restoration process according to the embodiment.

먼저, 도 7을 참조하면 영역 분할부(131)는 상기 입력 이미지를 기설정된 분할 조건에 따라 복수의 블록으로 분할한다.First, referring to FIG. 7, the region dividing unit 131 divides the input image into a plurality of blocks according to a predetermined division condition.

즉, 영역 분할부(131)는 입력 이미지(700)를 제 1 블록(710)과 같은 크기의 100개의 블록으로 분할한다.That is, the region dividing unit 131 divides the input image 700 into 100 blocks having the same size as the first block 710.

이때, 도면상에는 상기 이미지가 100개의 블록으로 분할된다고 예시하였지만, 이는 일 실시 예에 불과할 뿐, 상기 분할된 블록 수는 더 증가하거나 감소할 수 있을 것이다.At this time, it is illustrated that the image is divided into 100 blocks in the drawing, but this is only an example, and the number of divided blocks may be further increased or decreased.

다음으로, 도 8을 참조하면, 휘도 레벨 판단부(132)는 상기 영역 분할부(131)를 통해 분할된 각 블록에 대하여, 픽셀별 휘도 레벨을 판단한다.Next, referring to FIG. 8, the brightness level determiner 132 determines a brightness level for each of the pixels divided through the area dividing unit 131, for each pixel.

상기 휘도 레벨은 상기 설명한 바와 같이 히스토그램의 분석에 따라 확인될 수 있다.The brightness level can be confirmed according to the analysis of the histogram as described above.

그리고, 플레어 영역 검출부(133)는 상기 휘도 레벨 판단부(132)를 통해 확인된 휘도 레벨에 대한 정보를 수신하고, 그에 따라 기설정된 수(예를 들어, 100개) 이상의 픽셀이 255 레벨을 가지는 블록이 존재하는지를 판단한다.The flare area detecting unit 133 receives the information about the brightness level confirmed by the brightness level determining unit 132 and determines whether the predetermined number of pixels (for example, 100 or more) It is determined whether or not a block exists.

또한, 플레어 영역 검출부(133)는 상기 255 레벨을 가지는 블록이 존재하면, 상기 블록을 255 영역(플레어 영역의 중심 영역)으로 지정한다. If the block having the 255 level exists, the flare area detecting unit 133 designates the block as the 255 area (center area of the flare area).

도 8에서는 입력 이미지(800)상에서 제 1 블록(810)에 포함된 픽셀 중 255 레벨을 가지는 픽셀의 수가 기설정된 기준치를 벗어난 경우이며, 이에 따라 상기 제 1 블록(810)은 255 영역으로 지정될 수 있다.In FIG. 8, the number of pixels having the 255 level among the pixels included in the first block 810 on the input image 800 is out of a preset reference value, and accordingly, the first block 810 is designated as the 255 area .

이후, 플레어 영역 검출부(133)는 상기 255 영역이 확인되면, 상기 255 영역의 인접 영역(820)을 플레어 영역으로 지정한다.Then, when the 255 area is confirmed, the flare area detector 133 designates the adjacent area 820 of the 255 area as a flare area.

이때, 상기 인접 영역(820)은 상기 255 영역을 중심으로 상, 하, 좌 및 우 방향으로 A번째 위치한 블록까지 포함될 수 있다. 또한, 도면상에는 상기 인접 영역(820)이 상기 255 영역을 중심으로 상, 하, 좌 및 우 방향으로 2번째 위치한 블록까지 포함된다고 하였으나, 이는 일 실시 예에 불과할 뿐, 상기 인접 영역에 포함되는 블록은 더 증가하거나 줄어들 수 있을 것이다.At this time, the adjacent region 820 may include up to the A-th block in the up, down, left, and right directions with respect to the 255 region. In addition, although the adjacent region 820 includes the block located at the second position in the up, down, left, and right directions with respect to the 255 region in the figure, it is only one embodiment, Will increase or decrease further.

이에 따라, 상기 인접 영역(820)은 상기 255 영역을 중심으로 상, 하, 좌 및 우 방향으로 첫 번째 위치한 블록들을 포함하는 제 1 인접 영역(822)과, 두 번째 위치한 블록들을 포함하는 제 2 인접 영역(824)을 포함할 수 있다.Accordingly, the adjacent region 820 includes a first neighboring region 822 including blocks located first in the upper, lower, left, and right directions with respect to the 255 region, and a second adjacent region 822 including blocks located second And may include an adjacent region 824.

도 9는 인접 영역에 대한 밝기 증가율을 나타낸 도면이다.FIG. 9 is a graph showing the brightness increasing rate with respect to the adjacent area.

도 9를 참조하면, 픽셀별 밝기 증가율은, 도면에서와 같이 255 영역에서 인접할수록 기울기가 급격하게 증가하는 것을 알 수 있다.Referring to FIG. 9, it can be seen that the slope increases sharply in the 255 area as shown in the drawing.

이는, 이미지의 포화 정도가 심하다는 것을 알 수 있으며, 포인트 스프레드 함수의 왜곡 정도가 크다는 것을 알 수 있다.It can be seen that the degree of saturation of the image is severe, and the degree of distortion of the point spread function is large.

이에 따라, 실시 예에서는, 상기 이미지의 포화 정도, 다시 말해서 255 영역과의 인접 정도에 따라 상기 포인트 스프레드 함수의 왜곡 정도가 심하므로, 상기 포인트 스프레드 함수의 보상률을 높이도록 한다.Accordingly, in the embodiment, the degree of distortion of the point spread function is large according to the degree of saturation of the image, that is, the degree of proximity to the area 255, so that the compensation rate of the point spread function is increased.

예를 들어, 255 영역은 왜곡이 발생하지 않았으므로, 원래의 포인트 스프레드 함수를 그대로 적용하고, 상기 255 영역의 인접 영역은, 상기 포인트 스프레드 함수에 일정 배수를 취한 보정 포인트 스프레드 함수를 적용한다. 또한, 상기 보정 포인트 스프레드 함수는 상기 255 영역에 인접할수록 증가하게 되며, 그에 따라 가장 멀리 떨어진 인접 영역에 적용되는 보정 포인트 스프레드 함수는 실질적으로 원래의 포인트 스프레드 함수와 동일해질 것이다.For example, since the distortion does not occur in the area 255, the original point spread function is applied as it is, and the correction point spread function that applies a certain multiple to the point spread function is applied to the adjacent area in the area 255. In addition, the correction point spread function increases as the 255 area is further increased, so that the correction point spread function applied to the farthest adjacent area will be substantially the same as the original point spread function.

즉, 도 10을 참조하면, 실시 예에서는 255 영역에는 원래의 포인트 스프레드 함수, 즉 기준 포인트 스프레드 함수를 적용하여 원 이미지를 복원한다.In other words, referring to FIG. 10, in the embodiment, the original point spread function, that is, the reference point spread function is applied to the 255 area to restore the original image.

또한, 상기 255 영역에 가장 인접해 있는 제 1 인접 영역(A)은 상기 기준 포인트 스프레드 함수에 제 1 배수를 취한 제 1 보정 포인트 스프레드 함수를 적용한다.In addition, the first neighboring region (A) closest to the 255 region applies a first correction point spread function taking a first multiple to the reference point spread function.

또한, 상기 255 영역에 두 번째로 인접해 있는 제 2 인접 영역(B)은 상기 기준 포인트 스프레드 함수에 제 2 배수를 취한 제 2 보정 포인트 스프레드 함수를 적용한다.The second neighboring region B, which is adjacent to the 255 region, applies a second correction point spread function that takes a second multiple to the reference point spread function.

이때, 상기 제 1 보정 포인트 스프레드 함수에 적용되는 제 1 배수는, 상기 제 2 보정 포인트 스프레드 함수에 적용되는 제 2 배수보다 크다. 즉, 상기 255 영역과의 인접 정도에 따라 상기 포인트 스프레드 함수의 왜곡 정도가 심하므로, 보다 높은 배수를 취하여 보정 포인트 스프레드 함수를 산출한다.The first multiple applied to the first correction point spread function is greater than the second multiple applied to the second correction point spread function. That is, since the degree of distortion of the point spread function is significant according to the degree of proximity to the 255 area, a correction point spread function is calculated by taking a higher multiple.

예를 들어, 상기 기준 포인트 스프레드 함수는 1*PSF일 수 있고, 상기 제 1 보정 포인트 스프레드 함수는 5*PSF일 수 있으며, 상기 제 2 보정 포인트 스프레드 함수는 3*PSF일 수 있다.For example, the reference point spread function may be 1 * PSF, the first correction point spread function may be 5 * PSF, and the second correction point spread function may be 3 * PSF.

이미지 복원부(134)는 상기 기준 포인트 스프레드 함수 및 보정 포인트 스프레드 함수가 결정되면, 상기 기준 포인트 스프레드 함수 및 보정 포인트 스프레드 함수의 역수를 취하여 콘볼루션을 수행함으로써, 플레어 영역이 제거된 원 이미지를 복원한다.When the reference point spread function and the correction point spread function are determined, the image restoration unit 134 performs a convolution by taking the reciprocal of the reference point spread function and the correction point spread function, thereby restoring the original image from which the flare area has been removed do.

한편, 상기와 같은 방법으로 보정 포인트 스프레드 함수를 적용하여도 되지만, 보다 정확한 플레어 제거를 위해 상기 플레어 영역으로 지정된 영역을 보다 세분화하는 작업을 수행할 수 있다.Meanwhile, although the correction point spread function may be applied in the same manner as described above, it is possible to further refine the area designated as the flare area for more accurate flare removal.

즉, 상기에서는 255 영역을 중심으로 인접한 2개의 블록까지 플레어 영역으로 지정되었으며, 이에 따라 2개의 보정 포인트 스프레드 함수가 적용되었다.That is, in the above description, two adjacent blocks around the 255 area are designated as flare areas, and thus two correction point spread functions are applied.

이는, 플레어 제거가 가능하지만, 플레어 제거의 만족도를 최대로 올리지는 못할 수 있다.This means that although the flare can be removed, the satisfaction of the flare removal may not be maximized.

이에 따라, 실시 예에서는 도 11에서와 같이, 상기 플레어 영역이 지정되면, 상기 영역 분할부(131)는 상기 플레어 영역에 대해 보다 세분화된 분할 작업을 수행한다.Accordingly, in the embodiment, when the flare area is designated as shown in FIG. 11, the area dividing unit 131 performs a more finely divided operation on the flare area.

즉, 기존에는 2개의 블록만이 플레어 영역으로 지정되었지만, 상기 2개의 블록을 5개 블록으로 세분화하여, 5개의 인접 블록이 상기 플레어 영역에 포함되도록 한다.In other words, although two blocks are conventionally designated as flare areas, the two blocks are subdivided into five blocks so that five adjacent blocks are included in the flare area.

이에 따라, 상기 5개의 인접 블록에 대한 보정 포인트 스프레드 함수를 산출하고, 이에 대한 역수를 취하여 원 이미지 복원이 이루어지도록 한다.Accordingly, the correction point spread function for the five adjacent blocks is calculated, and the reciprocal of the correction point spread function is calculated so that the original image restoration is performed.

즉, 255 영역과 제일 인접해 있는 제 1 인접 블록에 제 1 보정 포인트 스프레드 함수를 적용하고, 두번째로 인접해 있는 제 2 인접 블록에 제 2 보정 포인트 스프레드 함수를 적용하며, 세 번째로 인접해 있는 제 3 인접 블록에 제 3 보정 포인트 스프레드 함수를 적용하고, 네 번째로 인접해 있는 제 4 인접 블록에 제 4 보정 포인트 스프레드 함수를 적용하며, 다섯 번째로 인접해 있는 제 5 인접 블록에 제 5 보정 포인트 스프레드 함수를 적용한다.That is, a first correction point spread function is applied to the first adjacent block closest to the 255 region, a second correction point spread function is applied to the second adjacent block adjacent to the second adjacent block, The third correction point spread function is applied to the third adjacent block, the fourth correction point spread function is applied to the fourth adjacent block which is the fourth adjacent block, and the fifth correction is performed to the fifth adjacent block, Apply the point spread function.

이때, 상기 제 1 보정 포인트 스프레드 함수 내지 제 5 보정 포인트 스프레드 함수의 관계는, 상기 255 영역에서 멀어질수록 작아지며, 상기 255 영역과 가장 먼 블록에 적용되는 보정 포인트 스프레드 함수는 기준 포인트 스프레드 함수와 거의 동일하게 된다.In this case, the relationship between the first correction point spread function and the fifth correction point spread function becomes smaller as the distance from the 255 area is increased, and the correction point spread function applied to the block farthest from the 255 area is smaller than the reference point spread function It becomes almost the same.

상기와 같은 보정 포인트 스프레드 함수를 적용하여 콘볼루션을 수행하게 되면, 도 12와 같이, 실제 광원과 같은 물체 영역은 그대로 있고, 그 주변에 발생하는 플레어만 효과적으로 제거할 수 있다.When the convolution is performed by applying the correction point spread function as described above, the object region such as the actual light source remains as shown in FIG. 12, and only the flare occurring in the vicinity thereof can be effectively removed.

또한, 플레어 영역을 제외한 다른 영역에 대해서는 기준 포인트 스프레드 함수가 그대로 적용되기 때문에, 상기 다른 영역에서 발생하는 화질 열화를 방지할 수 있다.In addition, since the reference point spread function is directly applied to other regions except for the flare region, image quality deterioration occurring in the other region can be prevented.

상기와 같은 실시 예에 의하면, 영상을 분석하여 플레어가 발생한 영역을 검출하고, 그에 따라 서로 다른 포인트 스프레드 함수를 적용하여 상기 플레어를 제거함으로써, 이미지의 화질 열화 없이 원 이미지를 용이하게 복원할 수 있다.According to the embodiment, the original image can be easily restored without deteriorating the image quality by analyzing the image to detect the area where the flare occurs, and by applying different point spread functions to remove the flare .

도 13 내지 15는 실시 예에 따른 영상 처리 장치의 영상 처리 방법을 단계별로 설명하는 흐름도이다.13 to 15 are flowcharts for explaining the image processing method of the image processing apparatus according to the embodiment step by step.

먼저, 도 13을 참조하면, 이미지 처리 장치는 렌즈(110)를 통해 입력되는 이미지를 수신한다(101단계).First, referring to FIG. 13, the image processing apparatus receives an image input through the lens 110 (Step 101).

이후, 상기 이미지가 수신되면, 상기 수신된 이미지의 휘도 레벨을 이용하여, 255 영역이 존재하는지를 판단하고, 상기 255 영역이 존재한다면, 상기 255 영역의 인접 영역을 플레어 영역으로 확인한다(102단계).Thereafter, when the image is received, it is determined whether 255 area exists by using the luminance level of the received image. If the 255 area exists, the neighboring area of the 255 area is confirmed as a flare area (step 102) .

상기 플레어 영역은, 상기 255 영역을 중심으로 A번째까지 떨어진 인접 블록일 수 있다.The flare area may be an adjacent block spaced by the A th center around the 255 area.

상기 플레어 영역이 확인되면, 이미지 처리장치는, 렌즈(110)로부터 기준 포인트 스프레드 함수를 도출한다(103단계).When the flare area is confirmed, the image processing apparatus derives a reference point spread function from the lens 110 (step 103).

이후, 상기 플레어 영역에 적용된 보정 포인트 스프레드 함수를 결정한다(104단계).Thereafter, a correction point spread function applied to the flare area is determined (step 104).

즉, 상기 255 영역과 인접할수록 상기 기준 포인트 스프레드 함수에 높은 상수의 배수를 곱하여, 상기 보정 포인트 스프레드 함수를 산출한다. 이때, 상기 산출되는 보정 포인트 스프레드 함수는 상기 255 영역에서 가장 인접한 인접 블록에 적용될 값이 제일 크고, 그에 따라 상기 255 영역에서 멀어질수록 작아질 것이다.That is, the correction point spread function is calculated by multiplying the reference point spread function by a multiple of a high constant so as to be adjacent to the 255 area. At this time, the calculated correction point spread function has the largest value to be applied to the closest neighboring block in the 255 area, and thus becomes smaller as it gets further from the 255 area.

이후, 상기 이미지 처리 장치는 상기 기준 포인트 스프레드 함수 및 보정 포인트 스프레드 함수를 이용하여 원 이미지를 복원한다(105단계).Thereafter, the image processing apparatus restores the original image using the reference point spread function and the correction point spread function (step 105).

다음으로, 도 14를 참조하면, 상기 이미지가 수신되면, 상기 수신된 이미지를 복수의 블록으로 분할한다(201단계).Referring to FIG. 14, when the image is received, the received image is divided into a plurality of blocks (step 201).

이후, 상기 분할된 블록 각각에 대하여, 픽셀별 휘도 레벨을 확인한다(202단계).Then, for each of the divided blocks, a brightness level for each pixel is checked (step 202).

상기 픽셀별 휘도 레벨이 확인되면, 상기 블록 중 255 영역이 존재하는지 여부를 판단한다(203단계).If the luminance level for each pixel is confirmed, it is determined whether or not the 255 area of the block is present (step 203).

즉, 255 레벨을 가지는 픽셀의 수가 기설정된 기준치 이상인 블록이 존재하는지 여부를 판단한다.That is, it is determined whether or not there is a block whose number of pixels having 255 levels is equal to or greater than a preset reference value.

상기 255 영역이 존재하면, 상기 255 영역을 중심으로 A 번째까지 인접해 있는 블록들을 인접 영역으로 판단한다(204단계).If the 255 area is present, it is determined that the blocks adjacent to the A th to the center of the 255 area are the adjacent area (operation 204).

이후, 상기 A번째 인접 블록까지 적용될 보정 포인트 스프레드 함수를 결정한다(205단계). 상기 보정 포인트 스프레드 함수의 결정 방법에 대해서는 상기에서 설명하였음로, 이에 대한 설명은 생략한다.Thereafter, a correction point spread function to be applied to the Ath neighbor block is determined (step 205). The method of determining the correction point spread function has been described above, and a description thereof will be omitted.

상기 보정 포인트 스프레드 함수가 결정되면, 결정된 보정 포인트 스프레드 함수와, 상기 기준 포인트 스프레드 함수를 이용하여 상기 이미지의 각 블록에 대한 복원 과정을 수행한다(206단계).When the correction point spread function is determined, a restoration process for each block of the image is performed using the determined correction point spread function and the reference point spread function (operation 206).

한편, 상기 255 영역이 존재하지 않으면, 센서 포화가 발생하지 않았다고 판단하고, 그에 따라 기준 포인트 스프레드 함수를 확인한다(207단계).On the other hand, if the 255 area does not exist, it is determined that the sensor saturation has not occurred, and the reference point spread function is checked accordingly (step 207).

이후, 상기 확인한 기준 포인트 스프레드 함수를 상기 이미지의 모든 블록에 적용하여 원 이미지를 복원한다(208단계).Then, the reference point spread function is applied to all blocks of the image to restore the original image (step 208).

다음으로, 도 15를 참조하면, 상기 플레어 영역이 판단되면, 상기 판단된 플레어 영역을 별도의 분리한다(301단계).Next, referring to FIG. 15, when the flare area is determined, the determined flare area is separated (step 301).

이후, 상기 분리된 플레어 영역을 이전 분할 조건보다 세분화하여, 더욱 많은 블록으로 분할한다(302단계).Thereafter, the separated flare area is subdivided into a larger number of blocks than the previous partitioning condition (step 302).

다음으로, 상기 세분화되어 분할된 각각의 인접 블록에 적용될 보정 포인트 스프레드 함수를 결정한다(303단계),Next, a correction point spread function to be applied to each of the adjacent blocks that have been segmented and divided is determined (step 303)

이후, 상기 결정된 보정 포인트 스프레드 함수를 이용하여 원 이미지를 복원한다(304단계).Thereafter, the original image is restored using the determined correction point spread function (step 304).

실시 예에 의하면, 영상을 분석하여 플레어가 발생한 영역을 검출하고, 그에 따라 서로 다른 포인트 스프레드 함수를 적용하여 상기 플레어를 제거함으로써, 이미지의 화질 열화 없이 원 이미지를 용이하게 복원할 수 있다.According to the embodiment, the original image can be easily restored without deteriorating the image quality by analyzing the image and detecting the area where the flare occurs, and by applying different point spread functions to remove the flare.

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.

110: 렌즈
120: 이미지 센서부
130: 영상 처리부
140: 표시부
150: 입력부
160: 저장부
170: 제어부
131: 영역 분할부
132: 휘도 레벨 판단부
133: 플레어 영역 검출부
134: 이미지 복원부
135: 이미지 출력부
110: lens
120: Image sensor unit
130:
140:
150:
160:
170:
131:
132: Brightness level determination unit
133: flare area detecting section
134: image restoration unit
135: image output section

Claims (15)

이미지를 수신하는 단계;
상기 수신된 이미지를 복수의 블록으로 분할하는 단계;
상기 분할된 블록별로 픽셀의 밝기 정보를 획득하는 단계;
상기 획득한 밝기 정보를 이용하여, 상기 분할된 블록 중 플레어 영역을 검출하는 단계;
상기 이미지의 플레어 영역과, 그 이외의 영역에 적용될 이미지 복원 조건을 결정하는 단계; 및
상기 결정된 이미지 복원 조건을 이용하여 원래의 이미지를 복원하는 단계를 포함하여 이루어지며,
상기 플레어 영역에 적용되는 이미지 복원 조건과, 상기 그 이외의 영역에 적용되는 이미지 복원 조건은 서로 다른 이미지 처리 방법.
Receiving an image;
Dividing the received image into a plurality of blocks;
Obtaining brightness information of a pixel for each of the divided blocks;
Detecting a flare region of the divided blocks using the obtained brightness information;
Determining an image restoration condition to be applied to the flare area of the image and other areas; And
And restoring the original image using the determined image restoration condition,
Wherein image restoration conditions applied to the flare area and image restoration conditions applied to the other areas are different from each other.
제 1항에 있어서,
상기 플레어 영역을 검출하는 단계는,
상기 획득한 밝기 정보를 이용하여, 상기 각각의 블록 중 255 레벨을 가지는 픽셀 수가 기설정된 기준치 이상이 되는 제 1 블록을 확인하는 단계와,
상기 확인된 제 1 블록의 인접 블록을 상기 플레어 영역으로 검출하는 단계를 포함하는 이미지 처리 방법.
The method according to claim 1,
Wherein the step of detecting the flare region comprises:
Identifying a first block in which the number of pixels having 255 levels in each of the blocks is equal to or greater than a preset reference value using the obtained brightness information,
And detecting the adjacent block of the identified first block as the flare area.
제 1항에 있어서,
상기 이미지 복원 조건을 결정하는 단계는,
렌즈로부터 기준 포인트 스프레드 함수를 도출하는 단계와,
상기 도출한 기준 포인트 스프레드 함수를 이용하여 상기 플레어 영역에 적용될 보정 포인트 스프레드 함수를 산출하는 단계를 포함하는 이미지 처리 방법.
The method according to claim 1,
Wherein the step of determining the image restoration condition comprises:
Deriving a reference point spread function from the lens,
And calculating a correction point spread function to be applied to the flare area using the derived reference point spread function.
제 3항에 있어서,
상기 플레어 영역에는,
상기 산출한 보정 포인트 스프레드 함수가 적용되고,
상기 플레어 영역을 제외한 나머지 영역에는,
상기 도출한 기준 포인트 스프레드 함수가 적용되는 이미지 처리 방법
The method of claim 3,
In the flare area,
The calculated correction point spread function is applied,
In the remaining region except for the flare region,
An image processing method to which the derived reference point spread function is applied
렌즈;
상기 렌즈를 통해 들어온 빛을 전기적인 이미지로 변환하는 이미지 센서;
상기 이미지 센서를 통해 변환된 이미지를 복수의 블록으로 분할하고, 상기 분할된 각각의 블록에 대한 밝기 정보를 이용하여 플레어 영역을 검출하며, 상기 검출된 플레어 영역과, 그 이외의 영역에 서로 다른 이미지 복원 조건을 적용하여 원 이미지를 복원하는 영상 처리부;를 포함하는 이미지 처리 장치.
lens;
An image sensor for converting light received through the lens into an electrical image;
Wherein the controller is configured to divide the image converted by the image sensor into a plurality of blocks, detect a flare area using the brightness information of each of the divided blocks, And an image processing unit for restoring the original image by applying restoration conditions.
제 5항에 있어서,
상기 이미지 복원 조건은,
상기 이미지 복원에 사용될 포인트 스프레드 함수를 포함하는 이미지 처리 장치.
6. The method of claim 5,
The image restoration condition includes:
And a point spread function to be used for the image restoration.
제 5항에 있어서,
상기 영상 처리부는,
상기 이미지를 복수의 블록으로 분할하는 영역 분할부와,
상기 영역 분할부를 통해 분할된 블록별 밝기 정보를 획득하는 휘도 레벨 판단부와,
상기 판단된 밝기 정보를 이용하여 상기 복수의 블록 중 플레어가 발생한 프레어 영역을 검출하는 플레어 영역 검출부와,
상기 검출된 플레어 영역과, 그 이외의 영역에 서로 다른 이미지 복원 조건을 적용하여 원래의 이미지를 복원하는 이미지 복원부를 포함하는 이미지 처리 장치.
6. The method of claim 5,
Wherein the image processing unit comprises:
An area dividing unit dividing the image into a plurality of blocks;
A brightness level determining unit for obtaining brightness information for each block divided through the area dividing unit,
A flare region detecting unit that detects a flare region in which a flare occurs among the plurality of blocks using the determined brightness information;
And an image restoration unit for restoring an original image by applying different image restoration conditions to the detected flare area and other areas.
제 5항에 있어서,
상기 영상 처리부는,
상기 획득한 밝기 정보를 이용하여, 상기 각각의 블록 중 255 레벨을 가지는 픽셀 수가 기설정된 기준치 이상이 되는 제 1 블록을 확인하고, 상기 확인된 제 1 블록의 인접 블록을 상기 플레어 영역으로 검출하는 이미지 처리 장치.
6. The method of claim 5,
Wherein the image processing unit comprises:
And a controller for checking the first block in which the number of pixels having 255 levels in each of the blocks is equal to or greater than a preset reference value using the obtained brightness information and detecting an adjacent block in the verified first block as the flare area Processing device.
제 8항에 있어서,
상기 플레어 영역에 적용될 이미지 복원 조건을 설정하고, 상기 설정된 이미지 복원 조건에 따라 상기 이미지의 복원이 이루어지도록 제어하는 제어부를 더 포함하며,
상기 제어부는,
상기 플레어 영역과, 상기 플레어 영역을 제외한 그 이외의 영역에 적용될 이미지 복원 조건을 서로 다르게 설정하는 이미지 처리 장치.
9. The method of claim 8,
Further comprising a controller configured to set an image restoration condition to be applied to the flare area and to control restoration of the image according to the set image restoration condition,
Wherein,
Wherein the image restoration conditions to be applied to the flare area and the other areas except for the flare area are different from each other.
제 9항에 있어서,
상기 제어부는,
상기 렌즈로부터 기준 포인트 스프레드 함수를 도출하고, 상기 도출한 기준 포인트 스프레드 함수를 이용하여 상기 플레어 영역에 적용될 보정 포인트 스프레드 함수를 산출하는 이미지 처리 장치.
10. The method of claim 9,
Wherein,
Deriving a reference point spread function from the lens, and calculating a correction point spread function to be applied to the flare region using the derived reference point spread function.
제 10항에 있어서,
상기 제어부는,
상기 플레어 영역에 상기 산출한 보정 포인트 스프레드 함수를 적용하고,
상기 플레어 영역을 제외한 나머지 영역에 상기 도출한 기준 포인트 스프레드 함수가 적용되어 이미지 복원이 이루어지도록 하는 이미지 처리 장치.
11. The method of claim 10,
Wherein,
Applying the calculated correction point spread function to the flare area,
Wherein the derived reference point spread function is applied to the remaining region except for the flare region to perform image restoration.
제 10항에 있어서,
상기 제어부는,
상기 제 1 블록과의 인접 정도에 따라 상기 플레어 영역으로 지정된 각각의 인접 블록에 적용될 보정 포인트 스프레드 함수를 산출하는 이미지 처리 장치.
11. The method of claim 10,
Wherein,
And calculates a correction point spread function to be applied to each adjacent block designated as the flare area according to the degree of proximity to the first block.
제 12항에 있어서,
상기 인접 블록은,
상기 제 1 블록으로부터 첫 번째 인접한 제 1 인접 블록 내지 N 번째 인접한 제 N 인접 블록을 포함하며,
상기 제 1 인접 블록 내지 제 N 인접 블록에 대해 산출되는 보정 포인트 스프레드 함수는 서로 다른 이미지 처리 장치.
13. The method of claim 12,
Wherein the adjacent block comprises:
A first adjacent block from the first block to an Nth adjacent Nth adjacent block,
Wherein the correction point spread functions calculated for the first to Nth adjacent blocks are different from each other.
제 13항에 있어서,
상기 영상 처리부는,
상기 각각의 인접 블록에 대해 산출된 보정 포인트 스프레드 함수 및 상기 기준 포인트 스프레드 함수를 이용하여 콘볼류션을 수행하는 이미지 처리 장치.
14. The method of claim 13,
Wherein the image processing unit comprises:
And performs convolution using the correction point spread function calculated for each adjacent block and the reference point spread function.
제 10항에 있어서,
상기 영상 처리부는,
상기 플레어 영역이 검출되면, 상기 검출된 플레어 영역을 세분화된 블록으로 재분할하고,
상기 제어부는,
상기 재분할된 블록에 각각 적용될 보정 포인트 스프레드 함수를 산출하는 이미지 처리 장치.
11. The method of claim 10,
Wherein the image processing unit comprises:
If the flare region is detected, re-segment the detected flare region into subdivided blocks,
Wherein,
And calculates a correction point spread function to be applied to each of the re-divided blocks.
KR1020120086888A 2012-04-27 2012-08-08 Apparatus and method for processing image KR101946946B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020120086888A KR101946946B1 (en) 2012-08-08 2012-08-08 Apparatus and method for processing image
JP2013018426A JP6185249B2 (en) 2012-04-27 2013-02-01 Image processing apparatus and image processing method
US13/872,642 US9007493B2 (en) 2012-04-27 2013-04-29 Image processing apparatus and image processing method for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120086888A KR101946946B1 (en) 2012-08-08 2012-08-08 Apparatus and method for processing image

Publications (2)

Publication Number Publication Date
KR20140020464A true KR20140020464A (en) 2014-02-19
KR101946946B1 KR101946946B1 (en) 2019-04-25

Family

ID=50267436

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120086888A KR101946946B1 (en) 2012-04-27 2012-08-08 Apparatus and method for processing image

Country Status (1)

Country Link
KR (1) KR101946946B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016195428A1 (en) * 2015-06-05 2016-12-08 삼성전자 주식회사 Method and apparatus for controlling image data
KR20200107359A (en) 2019-03-07 2020-09-16 김대봉 Flare examinating device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09238357A (en) * 1995-12-26 1997-09-09 Olympus Optical Co Ltd Electronic image pickup device
JP2005136917A (en) * 2003-10-31 2005-05-26 Canon Inc Image processing method, image processing apparatus, image processing program and image-taking system
JP2008035255A (en) * 2006-07-28 2008-02-14 Fujifilm Corp Image pickup device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09238357A (en) * 1995-12-26 1997-09-09 Olympus Optical Co Ltd Electronic image pickup device
JP2005136917A (en) * 2003-10-31 2005-05-26 Canon Inc Image processing method, image processing apparatus, image processing program and image-taking system
JP2008035255A (en) * 2006-07-28 2008-02-14 Fujifilm Corp Image pickup device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016195428A1 (en) * 2015-06-05 2016-12-08 삼성전자 주식회사 Method and apparatus for controlling image data
US10713764B2 (en) 2015-06-05 2020-07-14 Samsung Electronics Co., Ltd. Method and apparatus for controlling image data
KR20200107359A (en) 2019-03-07 2020-09-16 김대봉 Flare examinating device

Also Published As

Publication number Publication date
KR101946946B1 (en) 2019-04-25

Similar Documents

Publication Publication Date Title
US7868922B2 (en) Foreground/background segmentation in digital images
US9854188B2 (en) Calibration of defective image sensor elements
EP1528797A2 (en) Image processing apparatus, image-taking system and image processing method
US9569688B2 (en) Apparatus and method of detecting motion mask
JP6720881B2 (en) Image processing apparatus and image processing method
JP4466015B2 (en) Image processing apparatus and image processing program
JP5847471B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
US20120127336A1 (en) Imaging apparatus, imaging method and computer program
WO2016117034A1 (en) Image processing device, image processing method, and program
JP6185249B2 (en) Image processing apparatus and image processing method
WO2016117035A1 (en) Image processing device, image processing method, and program
US20170098136A1 (en) Image processing apparatus, method of controlling the same, and storage medium
JP2005136917A (en) Image processing method, image processing apparatus, image processing program and image-taking system
US11080873B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
US10972676B2 (en) Image processing method and electronic device capable of optimizing hdr image by using depth information
CN111741290A (en) Image stroboscopic detection method and device, storage medium and terminal
US10116865B2 (en) Image processing apparatus and image processing method for calculating motion vector between images with different in-focus positions
JP4419479B2 (en) Image processing apparatus and image processing program
US9762805B2 (en) Image processing apparatus performing tone correction process and method, and image capturing apparatus performing tone correction process
KR101946946B1 (en) Apparatus and method for processing image
JP5387341B2 (en) Imaging device
WO2016031403A1 (en) Image capture control device, image capture device, and method for controlling image capture device
KR101327078B1 (en) Camera and method for processing image
JP4466017B2 (en) Image processing apparatus and image processing program
JP4466016B2 (en) Image processing apparatus and image processing program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant