KR101593502B1 - Method for taking a photograph of face - Google Patents

Method for taking a photograph of face Download PDF

Info

Publication number
KR101593502B1
KR101593502B1 KR1020090066006A KR20090066006A KR101593502B1 KR 101593502 B1 KR101593502 B1 KR 101593502B1 KR 1020090066006 A KR1020090066006 A KR 1020090066006A KR 20090066006 A KR20090066006 A KR 20090066006A KR 101593502 B1 KR101593502 B1 KR 101593502B1
Authority
KR
South Korea
Prior art keywords
luminance
region
detecting
image
pixels
Prior art date
Application number
KR1020090066006A
Other languages
Korean (ko)
Other versions
KR20110008587A (en
Inventor
홍경수
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020090066006A priority Critical patent/KR101593502B1/en
Publication of KR20110008587A publication Critical patent/KR20110008587A/en
Application granted granted Critical
Publication of KR101593502B1 publication Critical patent/KR101593502B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/205Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic
    • H04N5/208Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic for compensating for attenuation of high frequency components, e.g. crispening, aperture distortion correction

Abstract

본 발명은 인물 촬영 방법에 관한 것으로, 입력되는 영상을 복수의 윈도우 영역으로 분할하고, 상기 복수의 윈도우 영역별 휘도 평균값 중 상기 전체 휘도 평균값 이상인 윈도우 영역인 고휘도 영역의 개수를 카운팅하고, 상기 고휘도 영역의 개수가 기준 개수 이상이면, 영상에 역광이 발생한 것으로 판단하여 인물 영역을 검출하여 인물 영역과 인물 영역 외의 영역을 별도로 보정함으로써, 역광으로 인해 발생한 영상 데이터의 왜곡을 보정할 수 있고, 인물 영역과 인물 주변 영역 사이의 경계를 보다 분명해져 영상의 화질을 개선할 수 있는 효과를 기대할 수 있다.The present invention relates to a portrait shooting method, which divides an input image into a plurality of window areas, counts the number of high brightness areas that are window areas that are equal to or larger than the total brightness average value among the brightness average values of the plurality of window areas, It is possible to correct the distortion of the image data caused by the backlight by correcting the character area and the area outside the character area separately by judging that the backlight is generated in the image, The boundary between the peripheral areas of the person becomes clearer and the image quality of the image can be improved.

역광, 영상, 픽셀, 휘도, 채도, 보정, 홍채 Backlight, Image, Pixel, Brightness, Saturation, Correction, Iris

Description

인물 촬영 방법{Method for taking a photograph of face}[0001] The present invention relates to a method for taking a portrait,

본 발명은 카메라 모듈을 이용하여 인물을 촬영하는 인물 촬영 방법에 관한 것이다.The present invention relates to a method of photographing a person using a camera module.

카메라의 자동 노출제어(Auto Exposure) 혹은 오토 아이리스(Auto Iris)는 CCD(Charge-coupled devices: 고체촬상소자)에 들어오는 광을 최적의 조건으로 하기 위한 기능이다.The camera's auto exposure control (Auto Exposure) or Auto Iris is a function for optimizing the light entering the CCD (Charge-coupled Devices).

즉, 입사되는 광량에 따라 최적의 조리개(Iris) 값을 설정함으로써 카메라의 노출을 제어하는 것이다.That is, the exposure of the camera is controlled by setting an optimum iris value according to the amount of incident light.

상기와 같은 자동 노출제어는, 포화 광량 이상으로 강한 빛이 입사되면 신호 전하가 넘쳐 주위 화소에 잉여 전하가 혼입되어 빛이 비추어지지 않은 부분까지 밝아지는 현상인 블루밍(Blooming)이나, 과잉의 빛에 의해 수직 방향으로 줄무늬상의 밝은 띠가 생기는 현상 CCD 수직 전송부의 불완전 차광에 의하여 발생하는 스미어(Smear) 같은 현상을 제거 혹은 방지하는 기능도 제공한다.In the automatic exposure control described above, blooming, which is a phenomenon in which a signal charge is overflowed when strong light is incident at a saturation light amount or more, and a surplus charge is mixed in surrounding pixels to brighten a portion where the light is not reflected, The present invention also provides a function of eliminating or preventing a phenomenon such as smear caused by incomplete shading of the vertical transfer portion of the CCD.

그러나, 어두운 피사체는 암(暗)부 상태로 밝은 피사체는 명(明)부 상태로 촬영하기 위해서는 CCD의 다이나믹 레인지(Dynamic Range)를 충분히 넓게 해주어야 하나 고해상도(300만 화소 이상) CCD의 포화 출력은 200mV ~ 500mV로 제한적이며, SN비(신호대 잡음비) 또한 크게 할 수 없기 때문에 상기와 같은 Blooming과 Smear에 대해 완벽히 대처 할 수 없는 상태이다.However, for a dark subject to be dark and a bright subject to be bright, the dynamic range of the CCD must be wide enough, but the saturation output of a high resolution CCD (more than 3 million pixels) 200mV ~ 500mV, and the SN ratio (signal-to-noise ratio) can not be increased. Therefore, it is impossible to completely cope with the above-mentioned blooming and smear.

특히, 역광 하에서 인물의 얼굴이 어둡게 되지 않고 선명하게 촬영하는 경우와 조명을 직접 바라보며 촬영하는 경우, 야간에 헤드라이트의 빛이 들어와도 자동차를 촬영할 수 있는 등과 경우에는 더욱 노이즈가 나타날 수 밖에 없다.Particularly, in the case where the face of the person is not darkened under the backlight and the picture is taken in a clear view, the picture is taken while looking at the light directly, the noise can not be seen even in the case where the automobile can be photographed even when the headlight is turned on at night.

상기와 같은 노이즈 현상을 방지하기 위하여, 종래의 기술은 화면 평균 방식과, 각 화면 별 비중을 두는 화면 분할 평균 방식을 사용한다.In order to prevent the above-mentioned noise phenomenon, the conventional technique uses a screen average method and a screen division averaging method which assigns a weight to each screen.

화면 평균 방식이란 화면 전체 혹은 일부의 휘도 레벨(Level)의 평균값을 비교하여 아이리스를 제어하는 기술이고, 화면분할 평균 방식이란 영상 신호를 복수개로 화면 분할하여 영역마다 얻어진 휘도 정보를 통해 촬영 화면 내의 명암 분포를 검출하여 자동적으로 보정하는 기술을 가리킨다.The screen average method is a technique of controlling the iris by comparing the average value of the brightness levels of the whole screen or a part of the screen. The screen division averaging method is a technique of dividing a video signal into a plurality of screens, And detects the distribution and corrects it automatically.

그러나, 상기와 같은 방법 또한 상기 노이즈(Smear, Blooming)에 대해 효과적인 해결책이 되지 못하며, 특히, 휴대전화기나 노트북 컴퓨터와 같은 모바일(Mobile) 기기용 카메라에 적용하는 경우에는 카메라 모듈의 공간적 제약으로 아이리스, ND (Neutral Density) 필터의 적용이 매우 어려운 현실이다.However, the above method is not an effective solution against the noise, and particularly when applied to a camera for a mobile device such as a mobile phone or a notebook computer, , And ND (Neutral Density) filters are very difficult to apply.

특히, 역광 영상과 같이 영상 데이터가 왜곡된 경우, 영상 데이터를 보정하여영상의 화질을 개선하는 것이 필요하다.In particular, when the image data is distorted as in the backlight image, it is necessary to correct the image data to improve the image quality.

본 발명은 역광이 발생한 화상의 인물 영역을 보정하는 인물 촬영 방법을 제공한다.The present invention provides a portrait photographing method for correcting a portrait area of an image in which backlight is generated.

본 발명의 한 특징에 따르면, 입력되는 영상을 복수의 윈도우 영역으로 분할하는 단계, 상기 복수의 윈도우 영역의 전체 휘도 평균값을 계산하고, 상기 복수의 윈도우 영역별 휘도 평균값을 계산하는 단계, 상기 복수의 윈도우 영역별 휘도 평균값 중 상기 전체 휘도 평균값 이상인 윈도우 영역인 고휘도 영역의 개수를 카운팅하는 단계, 상기 고휘도 영역의 개수가 기준 개수 이상이면, 상기 휘도 평균값이 설정된 제1 기준 휘도 범위에 포함되는 상기 윈도우 영역을 중간 휘도 영역으로 검출하는 단계, 상기 중간 휘도 영역에 포함되는 복수의 픽셀 중 채도가 설정된 기준 채도 범위에 포함되는 픽셀들을 얼굴 영역으로 검출하는 단계, 상기 얼굴 영역에 포함되는 픽셀들의 휘도 중 설정된 제2 기준 휘도 값 미만인 픽셀들을 홍채 영역으로 검출하는 단계, 상기 중간 휘도 영역에서 상기 홍채 영역이 검출되면, 상기 중간 휘도 영역에 포함되는 인접한 두 픽셀간의 휘도 차이를 이용하여 복수의 에지를 검출하는 단계, 상기 복수의 에지 중 상기 중간 휘도 영역의 테두리에서 가장 가까운 에지를 경계선으로 하는 인물 영역을 검출하는 단계, 상기 인물 영역에 포함되는 픽셀의 휘도를 설정된 레벨만큼 높여 설정하는 단계를 포함하는 인물 촬영 방법이 제공된다.
또한, 상기 영상의 R, G, B 데이터를 휘도 신호(Y) 및 채도 신호(Cb,Cr)로 변환하는 단계를 더 포함하며, 상기 제1 기준 휘도 범위는 상기 휘도 신호(Y)의 140~180 범위 이내에 포함될 수 있다.
또한, 상기 제2 기준 휘도 값은 상기 휘도 신호(Y)의 10일 수 있다.
According to an aspect of the present invention, there is provided a method of controlling an image processing apparatus, the method comprising: dividing an input image into a plurality of window regions; calculating a total luminance average value of the plurality of window regions; The method comprising the steps of: counting the number of high luminance regions which are window regions that are equal to or larger than the total luminance average value among the average luminance values of the respective window regions; if the number of high luminance regions is greater than or equal to the reference number, Detecting, as a face region, pixels included in a reference saturation range in which a saturation is set among a plurality of pixels included in the intermediate luminance region, Detecting, as an iris region, pixels less than two reference luminance values, Detecting a plurality of edges by using a luminance difference between two adjacent pixels included in the intermediate luminance region when the iris region is detected in a middle luminance region of the intermediate luminance region, A step of detecting a character area having an edge as a boundary line, and a step of setting a luminance of a pixel included in the character area by raising the luminance by a predetermined level.
The method may further include converting R, G, and B data of the image into a luminance signal (Y) and a chroma signal (Cb, Cr) 180 < / RTI > range.
Also, the second reference luminance value may be 10 of the luminance signal (Y).

본 발명의 실시 예에서는 역광이 발생한 화상에서 인물 영역과 인물 주변 영역을 별도로 보정함으로써, 역광으로 인해 발생한 영상 데이터의 왜곡을 보정할 수 있고, 인물 영역과 인물 주변 영역 사이의 경계를 보다 분명해져 영상의 화질을 개선할 수 있다.In the embodiment of the present invention, distortion of the image data caused by backlight can be corrected by separately correcting the person area and the person peripheral area in the backlit image, and the boundary between the person area and the person peripheral area becomes clearer, Can be improved.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.

예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. For example, without departing from the scope of the present invention, the second component may be referred to as a first component, and similarly, the first component may also be referred to as a second component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises", "having", and the like are used to specify that a feature, a number, a step, an operation, an element, a component, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

이제 본 발명의 실시 예에 따른 인물 촬영 방법에 대하여 도면을 참고하여 상세하게 설명하고, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기도 한다.Hereinafter, a person shooting method according to an embodiment of the present invention will be described in detail with reference to the drawings, and the same or corresponding elements are denoted by the same reference numerals regardless of their reference numerals, and redundant explanations thereof are omitted.

도 1은 본 발명의 실시 예에 따른 인물 촬영 방법을 나타내는 플로우차트이다.1 is a flowchart showing a person photographing method according to an embodiment of the present invention.

도 1은 영상을 취득할 수 있는 수단으로부터 입력되는 영상을 처리하는 프로 세서에 동작에 관한 것으로, 프로세서를 포함하는 장치의 구성에 대해서는 도시하지 않았으며 도 1에 도시된 방법은 영상을 처리하는 프로세서를 포함하는 모든 장치에 적용 가능하다. 특히, 이동통신 단말기에 내장되는 카메라 모듈에 적용 가능하다.1 is a block diagram illustrating a configuration of an apparatus including a processor, and FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention. And the like. In particular, the present invention is applicable to a camera module built in a mobile communication terminal.

도 1에 도시된 바와 같이, 본 발명은 취득한 영상이 입력되는 단계(S100), 입력되는 영상에 역광이 발생한 영상인지 아닌지를 판단하는 단계(S200). 역광 영상이라 판단되면 영상 중 인물 영역과 인물 영역이 아닌 영역을 검출하여 보정하는 단계(S300), 역광 영상이 아니라고 판단되면 영상을 디스플레이부(도시하지 않음)로 보정없이 출력하는 단계(S400)를 포함한다.As shown in FIG. 1, the present invention includes a step of inputting an acquired image (S100), and a step of determining whether or not the input image is a backlit image (S200). If it is determined that the backlight image is not a backlight image, a step of detecting and correcting an area other than a person area and a character area in the image (S300) is performed. If it is determined that the backlight image is not a backlight image, a step S400 of outputting the image without correction to a display unit .

도 2는 본 발명의 실시 예에 따른 역광 영상 판단 단계(S100)를 설명하는 플로우차트이고, 도 3은 본 발명의 실시 예에 따른 영상을 분할하는 방법을 설명하는 도면이다.FIG. 2 is a flowchart illustrating a backlight image determination step (S100) according to an embodiment of the present invention. FIG. 3 is a diagram illustrating a method of dividing an image according to an embodiment of the present invention.

도 2 및 도 3에 도시된 바와 같이, 우선 취득한 영상을 복수의 윈도우(window) 영역(W1~Wn)으로 분할한다(S101). 본 발명에서는 설명의 편의상 영상 데이터를 16개의 윈도우 영역으로 분할하여 설명한다. 하나의 윈도우 영역에는 복수의 픽셀이 포함되어 있다.As shown in Figs. 2 and 3, the acquired image is first divided into a plurality of window regions W1 to Wn (S101). In the present invention, the image data is divided into 16 window regions for convenience of explanation. One window region includes a plurality of pixels.

영상의 R, G, B 데이터를 휘도 신호(Y) 및 채도 신호(Cb, Cr)로 변환하고(S102), 전체 영상의 전체 휘도 평균값(Yo)을 계산하고(S103) 분할된 복수의 윈도우 영역(W1~Wn) 각각의 휘도 평균값(Y1~Yn)을 계산한다(S104). The total luminance average value Yo of the entire image is calculated (S103), and the divided luminance values of the plurality of window regions (Cb, Cr) are calculated The luminance average values Y1 to Yn of each of the luminance signals W1 to Wn are calculated (S104).

복수의 윈도우 영역별 휘도 평균값(Y1~Yn)과 전체 휘도 평균값(Yo)을 비교하 여(S105), 복수의 윈도우 영역별 휘도 평균값(Y1~Yn) 중 전체 휘도 평균값(Yo) 이상인 윈도우 영역을 고휘도 영역으로 검출하고(S106), 복수의 윈도우 영역별 휘도 평균값(Y1~Yn) 중 전체 평균값(Yo) 미만인 윈도우 영역을 저휘도 영역으로 검출한다(S107).A window area having a total luminance average value Yo or more among a plurality of luminance average values Y1 to Yn of a plurality of window areas is compared with a luminance range average value Y1 to Yn and a total luminance average value Yo, (S106), and detects a window area having a brightness average value (Y1 to Yn) less than the total average value (Yo) as a low brightness area (S107).

그리고, 고휘도 영역의 개수를 카운팅하여(S108), 고휘도 영역의 개수와 설정된 기준 개수를 비교한다(S109). Then, the number of high brightness areas is counted (S108), and the number of high brightness areas is compared with the set reference number (S109).

고휘도 영역의 개수가 기준 개수 이상이면 영상에 역광이 발생한 것으로 판단하여(S110), 인물 영역을 검출하는 단계(S200)를 실시한다.If the number of high luminance regions is equal to or more than the reference number, it is determined that backlight has occurred in the image (S110), and the step of detecting the character region (S200) is performed.

그러나, 고휘도 영역의 개수가 기준 개수 미만이면 영상에 역광이 발생하지 않은 것으로 판단하여(S111) 영상을 디스플레이부(도시하지 않음)로 출력한다(S112).However, if the number of high brightness regions is less than the reference number, it is determined that backlight does not occur in the image (S111), and the image is output to the display unit (not shown) (S112).

도 4는 본 발명의 실시 예에 따른 인물 영역을 검출하는 단계(S200)를 설명하는 플로우차트이다.4 is a flowchart illustrating a step S200 of detecting a person area according to an embodiment of the present invention.

고휘도 영역의 개수가 기준 개수 이상일 경우(도 2에 도시됨, 역광 영상이라 판단), 복수의 윈도우 영역별 휘도 평균값(Y1~Yn)과 설정된 제1 기준 휘도 범위를 비교하여(S201) 휘도 평균값(Y1~Yn)이 제1 기준 휘도 범위에 포함되는 윈도우 영역을 중간 휘도 영역으로 검출한다(S202). The luminance average values Y1 to Yn of the plurality of window regions are compared with the first reference luminance range that is set (S201). When the luminance average value ( Y1 to Yn) are included in the first reference luminance range as an intermediate luminance region (S202).

그리고, 중간 휘도 영역에 포함되는 복수의 픽셀의 채도와 설정된 기준 채도 범위를 비교하여(S203), 채도가 기준 채도 범위에 포함되는 픽셀들을 얼굴 영역으로 검출한다(S204). 채도가 기준 채도 범위에 포함되는 픽셀이 없는 경우에는 인물 사진이 아니라고 판단하여 영상을 디스플레이부로 출력한다(S205).Then, the saturation of the plurality of pixels included in the intermediate luminance region is compared with the set reference saturation range (S203), and the pixels having the saturation included in the reference saturation range are detected as the face region (S204). If there is no pixel whose saturation is within the reference saturation range, it is determined that it is not a portrait, and the image is output to the display unit (S205).

이때, 기준 채도 범위는 살색을 나타내는 채도 범위로서, 채도 신호(Cb)가 69~114 범위 이내에 포함되는 값이고 상기 채도 신호(Cr)가 119~177 범위 이내에 포함되는 값이다.In this case, the reference saturation range is a saturation range indicating flesh color, and the saturation signal (Cb) is included within the range of 69 to 114, and the saturation signal (Cr) is within the range of 119 to 177.

다음으로, 얼굴 영역에 포함되는 픽셀들의 휘도와 설정된 제2 기준 휘도 값과 비교하여(S206), 제2 기준 휘도 값 미만인 픽셀들을 홍채 영역으로 검출한다(S207). 이때, 제2 기준 휘도 값 미만인 픽셀이 없는 경우에는 인물 사진이 아니라고 판단하여 영상을 디스플레이부로 출력한다(S208).Next, the luminance of the pixels included in the face region is compared with the set second reference luminance value (S206), and the pixels less than the second reference luminance value are detected as the iris region (S207). At this time, if there is no pixel less than the second reference luminance value, it is determined that it is not a portrait, and the image is output to the display unit (S208).

제2 기준 휘도 값은 검은색을 나타내는 휘도 값의 기준 값으로, 휘도 신호(Y)가 10 인 값이다.The second reference luminance value is a reference value of a luminance value indicating a black color, and the luminance signal (Y) is a value of 10.

보다 구체적으로, 홍채 영역을 검출하는 단계는 얼굴 영역에 포함되는 픽셀들의 휘도 히스토그램을 N개의 정규분포 함수의 혼합 모델로 모델링하고, 혼합 모델 중 휘도가 제2 기준 휘도 값 미만인 픽셀들을 추출하여 홍채 영역으로 검출한다.More specifically, in the step of detecting the iris region, a luminance histogram of pixels included in the face region is modeled as a mixture model of N normal distribution functions, and pixels having luminance lower than the second reference luminance value are extracted, .

얼굴 영역이 검출되고 얼굴 영역 중 홍채 영역이 검출되면, 영상에 인물이 포함되어 있다는 것을 의미한다.When the face region is detected and the iris region is detected in the face region, it means that the image contains a person.

따라서, 중간 휘도 영역에 포함되는 인접한 두 픽셀간의 휘도 차이를 이용하여 복수의 에지를 검출하고(S209), 검출된 복수의 에지 중 중간 휘도 영역의 테두리에서 가장 가까운 에지를 경계선으로 하는 인물 영역을 검출한다(S210).Accordingly, a plurality of edges are detected using the luminance difference between two adjacent pixels included in the intermediate luminance region (S209), and a character region having the edge nearest to the edge of the intermediate luminance region among the detected plurality of edges is detected (S210).

이때, 복수의 에지는 하 웨이블렛 변환(Haar wavelet transform) 기법을 이 용하여 검출할 수 있다.At this time, a plurality of edges can be detected using a Haar wavelet transform technique.

마지막으로, 인물 영역에 포함되는 픽셀들의 휘도를 설정된 휘도 레벨만큼 높이고(S211), 중간 휘도 영역 중 인물 영역을 제외한 영역에 포함되는 픽셀들의 휘도를 설정된 휘도 레벨만큼 낮춘다(S212). Finally, the luminance of the pixels included in the character area is increased by a predetermined luminance level (S211), and the luminance of the pixels included in the area excluding the character area in the intermediate luminance area is decreased by the set luminance level (S212).

이때, 픽셀의 휘도를 높여주는 휘도 레벨과 픽셀의 휘도를 낮춰주는 휘도 레벨은 인물 영역과 인물 외 영역 사이의 경계가 선명하도록 보정되는 값으로, 사용자에 의해서 임의로 조정 가능한 값이다.At this time, the luminance level for increasing the luminance of the pixel and the luminance level for decreasing the luminance of the pixel are values that can be arbitrarily adjusted by the user, such that the boundary between the character area and the out-of-character area is sharpened.

그러면, 인물 영역에 발생하는 역광을 보정할 수 있다. 또한, 역광이 발생한화상에서 인물 영역과 인물 주변 영역을 별도로 보정함으로써, 역광으로 인해 발생한 영상 데이터의 왜곡을 보정할 수 있고, 인물 영역과 인물 주변 영역 사이의 경계를 보다 분명해져 영상의 화질을 개선할 수 있다.Then, the backlight generated in the person area can be corrected. Further, distortion of the image data caused by backlight can be corrected by separately correcting the person area and the person peripheral area in the backlit image, and the boundary between the character area and the person peripheral area becomes clearer, can do.

이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.

도 1은 본 발명의 실시 예에 따른 인물 촬영 방법을 나타내는 플로우차트이다.1 is a flowchart showing a person photographing method according to an embodiment of the present invention.

도 2는 본 발명의 실시 예에 따른 역광 영상 판단 단계를 설명하는 플로우차트이다.2 is a flowchart illustrating a backlight image determination step according to an embodiment of the present invention.

도 3은 본 발명의 실시 예에 따른 영상을 분할하는 방법을 설명하는 도면이다.3 is a view for explaining a method of dividing an image according to an embodiment of the present invention.

도 4는 본 발명의 실시 예에 따른 인물 영역을 검출하는 단계를 설명하는 플로우차트이다.4 is a flowchart illustrating a step of detecting a person area according to an embodiment of the present invention.

Claims (7)

입력되는 영상을 복수의 윈도우 영역으로 분할하는 단계,Dividing an input image into a plurality of window regions, 상기 복수의 윈도우 영역의 전체 휘도 평균값을 계산하고, 상기 복수의 윈도우 영역별 휘도 평균값을 계산하는 단계,Calculating a total luminance average value of the plurality of window regions and calculating a luminance average value for each of the plurality of window regions, 상기 복수의 윈도우 영역별 휘도 평균값 중 상기 전체 휘도 평균값 이상인 윈도우 영역인 고휘도 영역의 개수를 카운팅하는 단계, Counting the number of high luminance regions which are window regions that are equal to or greater than the total luminance average value among the luminance average values of the plurality of window regions, 상기 고휘도 영역의 개수가 기준 개수 이상이면, 상기 영역별 휘도 평균값이 설정된 제1 기준 휘도 범위에 포함되는 상기 윈도우 영역을 중간 휘도 영역으로 검출하는 단계,Detecting, as an intermediate luminance region, the window region included in the first reference luminance range in which the luminance average value of each region is set, if the number of the high luminance regions is equal to or greater than the reference number; 상기 중간 휘도 영역에 포함되는 복수의 픽셀 중 채도가 설정된 기준 채도 범위에 포함되는 픽셀들을 얼굴 영역으로 검출하는 단계,Detecting pixels of a plurality of pixels included in the intermediate luminance region included in a reference saturation range in which the saturation is set as a face region, 상기 얼굴 영역에 포함되는 복수의 픽셀 중 픽셀의 휘도가 설정된 제2 기준 휘도 값 미만인 픽셀들을 홍채 영역으로 검출하는 단계,Detecting, as an iris region, pixels having a luminance lower than a set second reference luminance value among a plurality of pixels included in the face region, 상기 중간 휘도 영역에서 상기 홍채 영역이 검출되면, 상기 중간 휘도 영역에 포함되는 인접한 두 픽셀간의 휘도 차이를 이용하여 복수의 에지를 검출하는 단계, Detecting a plurality of edges using the luminance difference between two adjacent pixels included in the intermediate luminance region when the iris region is detected in the intermediate luminance region, 상기 복수의 에지 중 상기 중간 휘도 영역의 테두리에서 가장 가까운 에지를 경계선으로 하는 인물 영역을 검출하는 단계, 및Detecting a character area having a border nearest to an edge of the intermediate luminance area among the plurality of edges; 상기 인물 영역에 포함되는 픽셀의 휘도를 설정된 레벨만큼 높여 설정하는 단계를 포함하는 인물 촬영 방법. And setting the brightness of the pixels included in the person area to be higher by a predetermined level. 제1항에 있어서,The method according to claim 1, 상기 중간 휘도 영역 중 상기 인물 영역을 제외한 픽셀의 휘도를 설정된 레벨만큼 낮추어 설정하는 단계를 더 포함하는 인물 촬영 방법.Further comprising the step of setting the luminance of the pixels of the intermediate luminance region other than the character region by a predetermined level. 제1항에 있어서,The method according to claim 1, 상기 에지를 검출하는 단계는 하 웨이블렛 변환(Haar wavelet transform) 기법을 이용하여 에지를 검출하는 인물 촬영 방법.Wherein detecting the edge comprises detecting an edge using a Haar wavelet transform technique. 제1항에 있어서,The method according to claim 1, 상기 홍채 영역을 검출하는 단계는 상기 얼굴 영역에 포함되는 픽셀들의 휘도 히스토그램을 N개의 정규분포 함수의 혼합 모델로 모델링하고, 상기 혼합 모델 중 휘도가 상기 제2 기준 휘도 값 미만인 픽셀들을 추출하여 상기 홍채 영역으로 검출하는 인물 촬영 방법.Wherein the detecting the iris region comprises: modeling a luminance histogram of pixels included in the face region as a mixture model of N normal distribution functions; extracting pixels of the mixture model whose luminance is less than the second reference luminance value, Area detecting method. 제1항에 있어서,The method according to claim 1, 상기 영상의 R, G, B 데이터를 휘도 신호(Y) 및 채도 신호(Cb, Cr)로 변환하는 단계를 더 포함하며,Converting the R, G and B data of the image into a luminance signal (Y) and a chroma signal (Cb, Cr) 상기 제1 기준 휘도 범위는 상기 휘도 신호(Y)의 140~180 범위 이내에 포함 되는 인물 촬영 방법.Wherein the first reference luminance range is included within a range of 140 to 180 of the luminance signal (Y). 제5항에 있어서,6. The method of claim 5, 상기 기준 채도 범위는 상기 채도 신호(Cb)의 69~114 범위 이내에 포함되고 상기 채도 신호(Cr)의 119~177 범위 이내에 포함되는 인물 촬영 방법. Wherein the reference saturation range is included within a range of 69 to 114 of the saturation signal (Cb) and is included within a range of 119 to 177 of the saturation signal (Cr). 제5항에 있어서,6. The method of claim 5, 상기 제2 기준 휘도 값은 상기 휘도 신호(Y)가 10인 인물 촬영 방법.And the second reference luminance value is the luminance signal (Y).
KR1020090066006A 2009-07-20 2009-07-20 Method for taking a photograph of face KR101593502B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090066006A KR101593502B1 (en) 2009-07-20 2009-07-20 Method for taking a photograph of face

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090066006A KR101593502B1 (en) 2009-07-20 2009-07-20 Method for taking a photograph of face

Publications (2)

Publication Number Publication Date
KR20110008587A KR20110008587A (en) 2011-01-27
KR101593502B1 true KR101593502B1 (en) 2016-02-18

Family

ID=43614569

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090066006A KR101593502B1 (en) 2009-07-20 2009-07-20 Method for taking a photograph of face

Country Status (1)

Country Link
KR (1) KR101593502B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105160633A (en) * 2015-07-02 2015-12-16 广东欧珀移动通信有限公司 Image processing method and device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002185771A (en) 2000-12-14 2002-06-28 Noritsu Koki Co Ltd Image forming device, image data processing method and recording medium recording image data processing program
JP2004201228A (en) 2002-12-20 2004-07-15 Fuji Photo Film Co Ltd Method and device for extracting face area
JP2008197762A (en) 2007-02-09 2008-08-28 Fujifilm Corp Photographing device, method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101297182B1 (en) * 2006-11-24 2013-08-21 삼성전자주식회사 Image photographing apparatus having function of auto back light compensation and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002185771A (en) 2000-12-14 2002-06-28 Noritsu Koki Co Ltd Image forming device, image data processing method and recording medium recording image data processing program
JP2004201228A (en) 2002-12-20 2004-07-15 Fuji Photo Film Co Ltd Method and device for extracting face area
JP2008197762A (en) 2007-02-09 2008-08-28 Fujifilm Corp Photographing device, method, and program

Also Published As

Publication number Publication date
KR20110008587A (en) 2011-01-27

Similar Documents

Publication Publication Date Title
CN111028189B (en) Image processing method, device, storage medium and electronic equipment
EP3343911A1 (en) Image signal processing method and system
US8743208B2 (en) Method and apparatus for image noise reduction using noise models
KR101313911B1 (en) Method and apparatus for processing an image
US8115818B2 (en) Imaging device and image processing method of same
US8368779B2 (en) Image processing apparatus for performing gradation correction on subject image
US20070040929A1 (en) Image combination device
CN105432068B (en) Photographic device, image capture method and image processing apparatus
CN107395991B (en) Image synthesis method, image synthesis device, computer-readable storage medium and computer equipment
EP1534003A1 (en) Digital still camera apparatus, video camera apparatus, and information terminal apparatus
KR20090091780A (en) Reduced position dependent noise in digital images
EP1557790A2 (en) Noise reduction in low-illuminance image
JP3267200B2 (en) Image processing device
CN110740266B (en) Image frame selection method and device, storage medium and electronic equipment
CN107464225B (en) Image processing method, image processing device, computer-readable storage medium and mobile terminal
JP2010102426A (en) Image processing apparatus and image processing method
JP2007201963A (en) Imaging apparatus
CN109937382B (en) Image forming apparatus and image forming method
KR101593502B1 (en) Method for taking a photograph of face
US20110085731A1 (en) Digital image processing apparatus for recognizing fireworks, method of operating the same, and computer-readable storage medium
US8154618B2 (en) Imaging apparatus and method for setting the same
US20130266220A1 (en) Color signal processing circuit, color signal processing method, color reproduction evaluating method, imaging apparatus, electronic apparatus and testing device
KR100839093B1 (en) Method and apparatus for measuring luminance and hue
JP5138510B2 (en) Image data processing device
JP4993275B2 (en) Image processing device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190114

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200109

Year of fee payment: 5