KR101593502B1 - Method for taking a photograph of face - Google Patents
Method for taking a photograph of face Download PDFInfo
- Publication number
- KR101593502B1 KR101593502B1 KR1020090066006A KR20090066006A KR101593502B1 KR 101593502 B1 KR101593502 B1 KR 101593502B1 KR 1020090066006 A KR1020090066006 A KR 1020090066006A KR 20090066006 A KR20090066006 A KR 20090066006A KR 101593502 B1 KR101593502 B1 KR 101593502B1
- Authority
- KR
- South Korea
- Prior art keywords
- luminance
- region
- detecting
- image
- pixels
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration by the use of histogram techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/20—Circuitry for controlling amplitude response
- H04N5/205—Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic
- H04N5/208—Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic for compensating for attenuation of high frequency components, e.g. crispening, aperture distortion correction
Abstract
본 발명은 인물 촬영 방법에 관한 것으로, 입력되는 영상을 복수의 윈도우 영역으로 분할하고, 상기 복수의 윈도우 영역별 휘도 평균값 중 상기 전체 휘도 평균값 이상인 윈도우 영역인 고휘도 영역의 개수를 카운팅하고, 상기 고휘도 영역의 개수가 기준 개수 이상이면, 영상에 역광이 발생한 것으로 판단하여 인물 영역을 검출하여 인물 영역과 인물 영역 외의 영역을 별도로 보정함으로써, 역광으로 인해 발생한 영상 데이터의 왜곡을 보정할 수 있고, 인물 영역과 인물 주변 영역 사이의 경계를 보다 분명해져 영상의 화질을 개선할 수 있는 효과를 기대할 수 있다.The present invention relates to a portrait shooting method, which divides an input image into a plurality of window areas, counts the number of high brightness areas that are window areas that are equal to or larger than the total brightness average value among the brightness average values of the plurality of window areas, It is possible to correct the distortion of the image data caused by the backlight by correcting the character area and the area outside the character area separately by judging that the backlight is generated in the image, The boundary between the peripheral areas of the person becomes clearer and the image quality of the image can be improved.
역광, 영상, 픽셀, 휘도, 채도, 보정, 홍채 Backlight, Image, Pixel, Brightness, Saturation, Correction, Iris
Description
본 발명은 카메라 모듈을 이용하여 인물을 촬영하는 인물 촬영 방법에 관한 것이다.The present invention relates to a method of photographing a person using a camera module.
카메라의 자동 노출제어(Auto Exposure) 혹은 오토 아이리스(Auto Iris)는 CCD(Charge-coupled devices: 고체촬상소자)에 들어오는 광을 최적의 조건으로 하기 위한 기능이다.The camera's auto exposure control (Auto Exposure) or Auto Iris is a function for optimizing the light entering the CCD (Charge-coupled Devices).
즉, 입사되는 광량에 따라 최적의 조리개(Iris) 값을 설정함으로써 카메라의 노출을 제어하는 것이다.That is, the exposure of the camera is controlled by setting an optimum iris value according to the amount of incident light.
상기와 같은 자동 노출제어는, 포화 광량 이상으로 강한 빛이 입사되면 신호 전하가 넘쳐 주위 화소에 잉여 전하가 혼입되어 빛이 비추어지지 않은 부분까지 밝아지는 현상인 블루밍(Blooming)이나, 과잉의 빛에 의해 수직 방향으로 줄무늬상의 밝은 띠가 생기는 현상 CCD 수직 전송부의 불완전 차광에 의하여 발생하는 스미어(Smear) 같은 현상을 제거 혹은 방지하는 기능도 제공한다.In the automatic exposure control described above, blooming, which is a phenomenon in which a signal charge is overflowed when strong light is incident at a saturation light amount or more, and a surplus charge is mixed in surrounding pixels to brighten a portion where the light is not reflected, The present invention also provides a function of eliminating or preventing a phenomenon such as smear caused by incomplete shading of the vertical transfer portion of the CCD.
그러나, 어두운 피사체는 암(暗)부 상태로 밝은 피사체는 명(明)부 상태로 촬영하기 위해서는 CCD의 다이나믹 레인지(Dynamic Range)를 충분히 넓게 해주어야 하나 고해상도(300만 화소 이상) CCD의 포화 출력은 200mV ~ 500mV로 제한적이며, SN비(신호대 잡음비) 또한 크게 할 수 없기 때문에 상기와 같은 Blooming과 Smear에 대해 완벽히 대처 할 수 없는 상태이다.However, for a dark subject to be dark and a bright subject to be bright, the dynamic range of the CCD must be wide enough, but the saturation output of a high resolution CCD (more than 3 million pixels) 200mV ~ 500mV, and the SN ratio (signal-to-noise ratio) can not be increased. Therefore, it is impossible to completely cope with the above-mentioned blooming and smear.
특히, 역광 하에서 인물의 얼굴이 어둡게 되지 않고 선명하게 촬영하는 경우와 조명을 직접 바라보며 촬영하는 경우, 야간에 헤드라이트의 빛이 들어와도 자동차를 촬영할 수 있는 등과 경우에는 더욱 노이즈가 나타날 수 밖에 없다.Particularly, in the case where the face of the person is not darkened under the backlight and the picture is taken in a clear view, the picture is taken while looking at the light directly, the noise can not be seen even in the case where the automobile can be photographed even when the headlight is turned on at night.
상기와 같은 노이즈 현상을 방지하기 위하여, 종래의 기술은 화면 평균 방식과, 각 화면 별 비중을 두는 화면 분할 평균 방식을 사용한다.In order to prevent the above-mentioned noise phenomenon, the conventional technique uses a screen average method and a screen division averaging method which assigns a weight to each screen.
화면 평균 방식이란 화면 전체 혹은 일부의 휘도 레벨(Level)의 평균값을 비교하여 아이리스를 제어하는 기술이고, 화면분할 평균 방식이란 영상 신호를 복수개로 화면 분할하여 영역마다 얻어진 휘도 정보를 통해 촬영 화면 내의 명암 분포를 검출하여 자동적으로 보정하는 기술을 가리킨다.The screen average method is a technique of controlling the iris by comparing the average value of the brightness levels of the whole screen or a part of the screen. The screen division averaging method is a technique of dividing a video signal into a plurality of screens, And detects the distribution and corrects it automatically.
그러나, 상기와 같은 방법 또한 상기 노이즈(Smear, Blooming)에 대해 효과적인 해결책이 되지 못하며, 특히, 휴대전화기나 노트북 컴퓨터와 같은 모바일(Mobile) 기기용 카메라에 적용하는 경우에는 카메라 모듈의 공간적 제약으로 아이리스, ND (Neutral Density) 필터의 적용이 매우 어려운 현실이다.However, the above method is not an effective solution against the noise, and particularly when applied to a camera for a mobile device such as a mobile phone or a notebook computer, , And ND (Neutral Density) filters are very difficult to apply.
특히, 역광 영상과 같이 영상 데이터가 왜곡된 경우, 영상 데이터를 보정하여영상의 화질을 개선하는 것이 필요하다.In particular, when the image data is distorted as in the backlight image, it is necessary to correct the image data to improve the image quality.
본 발명은 역광이 발생한 화상의 인물 영역을 보정하는 인물 촬영 방법을 제공한다.The present invention provides a portrait photographing method for correcting a portrait area of an image in which backlight is generated.
본 발명의 한 특징에 따르면, 입력되는 영상을 복수의 윈도우 영역으로 분할하는 단계, 상기 복수의 윈도우 영역의 전체 휘도 평균값을 계산하고, 상기 복수의 윈도우 영역별 휘도 평균값을 계산하는 단계, 상기 복수의 윈도우 영역별 휘도 평균값 중 상기 전체 휘도 평균값 이상인 윈도우 영역인 고휘도 영역의 개수를 카운팅하는 단계, 상기 고휘도 영역의 개수가 기준 개수 이상이면, 상기 휘도 평균값이 설정된 제1 기준 휘도 범위에 포함되는 상기 윈도우 영역을 중간 휘도 영역으로 검출하는 단계, 상기 중간 휘도 영역에 포함되는 복수의 픽셀 중 채도가 설정된 기준 채도 범위에 포함되는 픽셀들을 얼굴 영역으로 검출하는 단계, 상기 얼굴 영역에 포함되는 픽셀들의 휘도 중 설정된 제2 기준 휘도 값 미만인 픽셀들을 홍채 영역으로 검출하는 단계, 상기 중간 휘도 영역에서 상기 홍채 영역이 검출되면, 상기 중간 휘도 영역에 포함되는 인접한 두 픽셀간의 휘도 차이를 이용하여 복수의 에지를 검출하는 단계, 상기 복수의 에지 중 상기 중간 휘도 영역의 테두리에서 가장 가까운 에지를 경계선으로 하는 인물 영역을 검출하는 단계, 상기 인물 영역에 포함되는 픽셀의 휘도를 설정된 레벨만큼 높여 설정하는 단계를 포함하는 인물 촬영 방법이 제공된다.
또한, 상기 영상의 R, G, B 데이터를 휘도 신호(Y) 및 채도 신호(Cb,Cr)로 변환하는 단계를 더 포함하며, 상기 제1 기준 휘도 범위는 상기 휘도 신호(Y)의 140~180 범위 이내에 포함될 수 있다.
또한, 상기 제2 기준 휘도 값은 상기 휘도 신호(Y)의 10일 수 있다.According to an aspect of the present invention, there is provided a method of controlling an image processing apparatus, the method comprising: dividing an input image into a plurality of window regions; calculating a total luminance average value of the plurality of window regions; The method comprising the steps of: counting the number of high luminance regions which are window regions that are equal to or larger than the total luminance average value among the average luminance values of the respective window regions; if the number of high luminance regions is greater than or equal to the reference number, Detecting, as a face region, pixels included in a reference saturation range in which a saturation is set among a plurality of pixels included in the intermediate luminance region, Detecting, as an iris region, pixels less than two reference luminance values, Detecting a plurality of edges by using a luminance difference between two adjacent pixels included in the intermediate luminance region when the iris region is detected in a middle luminance region of the intermediate luminance region, A step of detecting a character area having an edge as a boundary line, and a step of setting a luminance of a pixel included in the character area by raising the luminance by a predetermined level.
The method may further include converting R, G, and B data of the image into a luminance signal (Y) and a chroma signal (Cb, Cr) 180 < / RTI > range.
Also, the second reference luminance value may be 10 of the luminance signal (Y).
본 발명의 실시 예에서는 역광이 발생한 화상에서 인물 영역과 인물 주변 영역을 별도로 보정함으로써, 역광으로 인해 발생한 영상 데이터의 왜곡을 보정할 수 있고, 인물 영역과 인물 주변 영역 사이의 경계를 보다 분명해져 영상의 화질을 개선할 수 있다.In the embodiment of the present invention, distortion of the image data caused by backlight can be corrected by separately correcting the person area and the person peripheral area in the backlit image, and the boundary between the person area and the person peripheral area becomes clearer, Can be improved.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.
예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. For example, without departing from the scope of the present invention, the second component may be referred to as a first component, and similarly, the first component may also be referred to as a second component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises", "having", and the like are used to specify that a feature, a number, a step, an operation, an element, a component, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
이제 본 발명의 실시 예에 따른 인물 촬영 방법에 대하여 도면을 참고하여 상세하게 설명하고, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기도 한다.Hereinafter, a person shooting method according to an embodiment of the present invention will be described in detail with reference to the drawings, and the same or corresponding elements are denoted by the same reference numerals regardless of their reference numerals, and redundant explanations thereof are omitted.
도 1은 본 발명의 실시 예에 따른 인물 촬영 방법을 나타내는 플로우차트이다.1 is a flowchart showing a person photographing method according to an embodiment of the present invention.
도 1은 영상을 취득할 수 있는 수단으로부터 입력되는 영상을 처리하는 프로 세서에 동작에 관한 것으로, 프로세서를 포함하는 장치의 구성에 대해서는 도시하지 않았으며 도 1에 도시된 방법은 영상을 처리하는 프로세서를 포함하는 모든 장치에 적용 가능하다. 특히, 이동통신 단말기에 내장되는 카메라 모듈에 적용 가능하다.1 is a block diagram illustrating a configuration of an apparatus including a processor, and FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention. And the like. In particular, the present invention is applicable to a camera module built in a mobile communication terminal.
도 1에 도시된 바와 같이, 본 발명은 취득한 영상이 입력되는 단계(S100), 입력되는 영상에 역광이 발생한 영상인지 아닌지를 판단하는 단계(S200). 역광 영상이라 판단되면 영상 중 인물 영역과 인물 영역이 아닌 영역을 검출하여 보정하는 단계(S300), 역광 영상이 아니라고 판단되면 영상을 디스플레이부(도시하지 않음)로 보정없이 출력하는 단계(S400)를 포함한다.As shown in FIG. 1, the present invention includes a step of inputting an acquired image (S100), and a step of determining whether or not the input image is a backlit image (S200). If it is determined that the backlight image is not a backlight image, a step of detecting and correcting an area other than a person area and a character area in the image (S300) is performed. If it is determined that the backlight image is not a backlight image, a step S400 of outputting the image without correction to a display unit .
도 2는 본 발명의 실시 예에 따른 역광 영상 판단 단계(S100)를 설명하는 플로우차트이고, 도 3은 본 발명의 실시 예에 따른 영상을 분할하는 방법을 설명하는 도면이다.FIG. 2 is a flowchart illustrating a backlight image determination step (S100) according to an embodiment of the present invention. FIG. 3 is a diagram illustrating a method of dividing an image according to an embodiment of the present invention.
도 2 및 도 3에 도시된 바와 같이, 우선 취득한 영상을 복수의 윈도우(window) 영역(W1~Wn)으로 분할한다(S101). 본 발명에서는 설명의 편의상 영상 데이터를 16개의 윈도우 영역으로 분할하여 설명한다. 하나의 윈도우 영역에는 복수의 픽셀이 포함되어 있다.As shown in Figs. 2 and 3, the acquired image is first divided into a plurality of window regions W1 to Wn (S101). In the present invention, the image data is divided into 16 window regions for convenience of explanation. One window region includes a plurality of pixels.
영상의 R, G, B 데이터를 휘도 신호(Y) 및 채도 신호(Cb, Cr)로 변환하고(S102), 전체 영상의 전체 휘도 평균값(Yo)을 계산하고(S103) 분할된 복수의 윈도우 영역(W1~Wn) 각각의 휘도 평균값(Y1~Yn)을 계산한다(S104). The total luminance average value Yo of the entire image is calculated (S103), and the divided luminance values of the plurality of window regions (Cb, Cr) are calculated The luminance average values Y1 to Yn of each of the luminance signals W1 to Wn are calculated (S104).
복수의 윈도우 영역별 휘도 평균값(Y1~Yn)과 전체 휘도 평균값(Yo)을 비교하 여(S105), 복수의 윈도우 영역별 휘도 평균값(Y1~Yn) 중 전체 휘도 평균값(Yo) 이상인 윈도우 영역을 고휘도 영역으로 검출하고(S106), 복수의 윈도우 영역별 휘도 평균값(Y1~Yn) 중 전체 평균값(Yo) 미만인 윈도우 영역을 저휘도 영역으로 검출한다(S107).A window area having a total luminance average value Yo or more among a plurality of luminance average values Y1 to Yn of a plurality of window areas is compared with a luminance range average value Y1 to Yn and a total luminance average value Yo, (S106), and detects a window area having a brightness average value (Y1 to Yn) less than the total average value (Yo) as a low brightness area (S107).
그리고, 고휘도 영역의 개수를 카운팅하여(S108), 고휘도 영역의 개수와 설정된 기준 개수를 비교한다(S109). Then, the number of high brightness areas is counted (S108), and the number of high brightness areas is compared with the set reference number (S109).
고휘도 영역의 개수가 기준 개수 이상이면 영상에 역광이 발생한 것으로 판단하여(S110), 인물 영역을 검출하는 단계(S200)를 실시한다.If the number of high luminance regions is equal to or more than the reference number, it is determined that backlight has occurred in the image (S110), and the step of detecting the character region (S200) is performed.
그러나, 고휘도 영역의 개수가 기준 개수 미만이면 영상에 역광이 발생하지 않은 것으로 판단하여(S111) 영상을 디스플레이부(도시하지 않음)로 출력한다(S112).However, if the number of high brightness regions is less than the reference number, it is determined that backlight does not occur in the image (S111), and the image is output to the display unit (not shown) (S112).
도 4는 본 발명의 실시 예에 따른 인물 영역을 검출하는 단계(S200)를 설명하는 플로우차트이다.4 is a flowchart illustrating a step S200 of detecting a person area according to an embodiment of the present invention.
고휘도 영역의 개수가 기준 개수 이상일 경우(도 2에 도시됨, 역광 영상이라 판단), 복수의 윈도우 영역별 휘도 평균값(Y1~Yn)과 설정된 제1 기준 휘도 범위를 비교하여(S201) 휘도 평균값(Y1~Yn)이 제1 기준 휘도 범위에 포함되는 윈도우 영역을 중간 휘도 영역으로 검출한다(S202). The luminance average values Y1 to Yn of the plurality of window regions are compared with the first reference luminance range that is set (S201). When the luminance average value ( Y1 to Yn) are included in the first reference luminance range as an intermediate luminance region (S202).
그리고, 중간 휘도 영역에 포함되는 복수의 픽셀의 채도와 설정된 기준 채도 범위를 비교하여(S203), 채도가 기준 채도 범위에 포함되는 픽셀들을 얼굴 영역으로 검출한다(S204). 채도가 기준 채도 범위에 포함되는 픽셀이 없는 경우에는 인물 사진이 아니라고 판단하여 영상을 디스플레이부로 출력한다(S205).Then, the saturation of the plurality of pixels included in the intermediate luminance region is compared with the set reference saturation range (S203), and the pixels having the saturation included in the reference saturation range are detected as the face region (S204). If there is no pixel whose saturation is within the reference saturation range, it is determined that it is not a portrait, and the image is output to the display unit (S205).
이때, 기준 채도 범위는 살색을 나타내는 채도 범위로서, 채도 신호(Cb)가 69~114 범위 이내에 포함되는 값이고 상기 채도 신호(Cr)가 119~177 범위 이내에 포함되는 값이다.In this case, the reference saturation range is a saturation range indicating flesh color, and the saturation signal (Cb) is included within the range of 69 to 114, and the saturation signal (Cr) is within the range of 119 to 177.
다음으로, 얼굴 영역에 포함되는 픽셀들의 휘도와 설정된 제2 기준 휘도 값과 비교하여(S206), 제2 기준 휘도 값 미만인 픽셀들을 홍채 영역으로 검출한다(S207). 이때, 제2 기준 휘도 값 미만인 픽셀이 없는 경우에는 인물 사진이 아니라고 판단하여 영상을 디스플레이부로 출력한다(S208).Next, the luminance of the pixels included in the face region is compared with the set second reference luminance value (S206), and the pixels less than the second reference luminance value are detected as the iris region (S207). At this time, if there is no pixel less than the second reference luminance value, it is determined that it is not a portrait, and the image is output to the display unit (S208).
제2 기준 휘도 값은 검은색을 나타내는 휘도 값의 기준 값으로, 휘도 신호(Y)가 10 인 값이다.The second reference luminance value is a reference value of a luminance value indicating a black color, and the luminance signal (Y) is a value of 10.
보다 구체적으로, 홍채 영역을 검출하는 단계는 얼굴 영역에 포함되는 픽셀들의 휘도 히스토그램을 N개의 정규분포 함수의 혼합 모델로 모델링하고, 혼합 모델 중 휘도가 제2 기준 휘도 값 미만인 픽셀들을 추출하여 홍채 영역으로 검출한다.More specifically, in the step of detecting the iris region, a luminance histogram of pixels included in the face region is modeled as a mixture model of N normal distribution functions, and pixels having luminance lower than the second reference luminance value are extracted, .
얼굴 영역이 검출되고 얼굴 영역 중 홍채 영역이 검출되면, 영상에 인물이 포함되어 있다는 것을 의미한다.When the face region is detected and the iris region is detected in the face region, it means that the image contains a person.
따라서, 중간 휘도 영역에 포함되는 인접한 두 픽셀간의 휘도 차이를 이용하여 복수의 에지를 검출하고(S209), 검출된 복수의 에지 중 중간 휘도 영역의 테두리에서 가장 가까운 에지를 경계선으로 하는 인물 영역을 검출한다(S210).Accordingly, a plurality of edges are detected using the luminance difference between two adjacent pixels included in the intermediate luminance region (S209), and a character region having the edge nearest to the edge of the intermediate luminance region among the detected plurality of edges is detected (S210).
이때, 복수의 에지는 하 웨이블렛 변환(Haar wavelet transform) 기법을 이 용하여 검출할 수 있다.At this time, a plurality of edges can be detected using a Haar wavelet transform technique.
마지막으로, 인물 영역에 포함되는 픽셀들의 휘도를 설정된 휘도 레벨만큼 높이고(S211), 중간 휘도 영역 중 인물 영역을 제외한 영역에 포함되는 픽셀들의 휘도를 설정된 휘도 레벨만큼 낮춘다(S212). Finally, the luminance of the pixels included in the character area is increased by a predetermined luminance level (S211), and the luminance of the pixels included in the area excluding the character area in the intermediate luminance area is decreased by the set luminance level (S212).
이때, 픽셀의 휘도를 높여주는 휘도 레벨과 픽셀의 휘도를 낮춰주는 휘도 레벨은 인물 영역과 인물 외 영역 사이의 경계가 선명하도록 보정되는 값으로, 사용자에 의해서 임의로 조정 가능한 값이다.At this time, the luminance level for increasing the luminance of the pixel and the luminance level for decreasing the luminance of the pixel are values that can be arbitrarily adjusted by the user, such that the boundary between the character area and the out-of-character area is sharpened.
그러면, 인물 영역에 발생하는 역광을 보정할 수 있다. 또한, 역광이 발생한화상에서 인물 영역과 인물 주변 영역을 별도로 보정함으로써, 역광으로 인해 발생한 영상 데이터의 왜곡을 보정할 수 있고, 인물 영역과 인물 주변 영역 사이의 경계를 보다 분명해져 영상의 화질을 개선할 수 있다.Then, the backlight generated in the person area can be corrected. Further, distortion of the image data caused by backlight can be corrected by separately correcting the person area and the person peripheral area in the backlit image, and the boundary between the character area and the person peripheral area becomes clearer, can do.
이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.
도 1은 본 발명의 실시 예에 따른 인물 촬영 방법을 나타내는 플로우차트이다.1 is a flowchart showing a person photographing method according to an embodiment of the present invention.
도 2는 본 발명의 실시 예에 따른 역광 영상 판단 단계를 설명하는 플로우차트이다.2 is a flowchart illustrating a backlight image determination step according to an embodiment of the present invention.
도 3은 본 발명의 실시 예에 따른 영상을 분할하는 방법을 설명하는 도면이다.3 is a view for explaining a method of dividing an image according to an embodiment of the present invention.
도 4는 본 발명의 실시 예에 따른 인물 영역을 검출하는 단계를 설명하는 플로우차트이다.4 is a flowchart illustrating a step of detecting a person area according to an embodiment of the present invention.
Claims (7)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090066006A KR101593502B1 (en) | 2009-07-20 | 2009-07-20 | Method for taking a photograph of face |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090066006A KR101593502B1 (en) | 2009-07-20 | 2009-07-20 | Method for taking a photograph of face |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110008587A KR20110008587A (en) | 2011-01-27 |
KR101593502B1 true KR101593502B1 (en) | 2016-02-18 |
Family
ID=43614569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090066006A KR101593502B1 (en) | 2009-07-20 | 2009-07-20 | Method for taking a photograph of face |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101593502B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105160633A (en) * | 2015-07-02 | 2015-12-16 | 广东欧珀移动通信有限公司 | Image processing method and device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002185771A (en) | 2000-12-14 | 2002-06-28 | Noritsu Koki Co Ltd | Image forming device, image data processing method and recording medium recording image data processing program |
JP2004201228A (en) | 2002-12-20 | 2004-07-15 | Fuji Photo Film Co Ltd | Method and device for extracting face area |
JP2008197762A (en) | 2007-02-09 | 2008-08-28 | Fujifilm Corp | Photographing device, method, and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101297182B1 (en) * | 2006-11-24 | 2013-08-21 | 삼성전자주식회사 | Image photographing apparatus having function of auto back light compensation and method thereof |
-
2009
- 2009-07-20 KR KR1020090066006A patent/KR101593502B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002185771A (en) | 2000-12-14 | 2002-06-28 | Noritsu Koki Co Ltd | Image forming device, image data processing method and recording medium recording image data processing program |
JP2004201228A (en) | 2002-12-20 | 2004-07-15 | Fuji Photo Film Co Ltd | Method and device for extracting face area |
JP2008197762A (en) | 2007-02-09 | 2008-08-28 | Fujifilm Corp | Photographing device, method, and program |
Also Published As
Publication number | Publication date |
---|---|
KR20110008587A (en) | 2011-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111028189B (en) | Image processing method, device, storage medium and electronic equipment | |
EP3343911A1 (en) | Image signal processing method and system | |
US8743208B2 (en) | Method and apparatus for image noise reduction using noise models | |
KR101313911B1 (en) | Method and apparatus for processing an image | |
US8115818B2 (en) | Imaging device and image processing method of same | |
US8368779B2 (en) | Image processing apparatus for performing gradation correction on subject image | |
US20070040929A1 (en) | Image combination device | |
CN105432068B (en) | Photographic device, image capture method and image processing apparatus | |
CN107395991B (en) | Image synthesis method, image synthesis device, computer-readable storage medium and computer equipment | |
EP1534003A1 (en) | Digital still camera apparatus, video camera apparatus, and information terminal apparatus | |
KR20090091780A (en) | Reduced position dependent noise in digital images | |
EP1557790A2 (en) | Noise reduction in low-illuminance image | |
JP3267200B2 (en) | Image processing device | |
CN110740266B (en) | Image frame selection method and device, storage medium and electronic equipment | |
CN107464225B (en) | Image processing method, image processing device, computer-readable storage medium and mobile terminal | |
JP2010102426A (en) | Image processing apparatus and image processing method | |
JP2007201963A (en) | Imaging apparatus | |
CN109937382B (en) | Image forming apparatus and image forming method | |
KR101593502B1 (en) | Method for taking a photograph of face | |
US20110085731A1 (en) | Digital image processing apparatus for recognizing fireworks, method of operating the same, and computer-readable storage medium | |
US8154618B2 (en) | Imaging apparatus and method for setting the same | |
US20130266220A1 (en) | Color signal processing circuit, color signal processing method, color reproduction evaluating method, imaging apparatus, electronic apparatus and testing device | |
KR100839093B1 (en) | Method and apparatus for measuring luminance and hue | |
JP5138510B2 (en) | Image data processing device | |
JP4993275B2 (en) | Image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190114 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20200109 Year of fee payment: 5 |