KR20110008587A - Method for taking a photograph of face - Google Patents

Method for taking a photograph of face Download PDF

Info

Publication number
KR20110008587A
KR20110008587A KR1020090066006A KR20090066006A KR20110008587A KR 20110008587 A KR20110008587 A KR 20110008587A KR 1020090066006 A KR1020090066006 A KR 1020090066006A KR 20090066006 A KR20090066006 A KR 20090066006A KR 20110008587 A KR20110008587 A KR 20110008587A
Authority
KR
South Korea
Prior art keywords
luminance
range
detecting
area
region
Prior art date
Application number
KR1020090066006A
Other languages
Korean (ko)
Other versions
KR101593502B1 (en
Inventor
홍경수
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020090066006A priority Critical patent/KR101593502B1/en
Publication of KR20110008587A publication Critical patent/KR20110008587A/en
Application granted granted Critical
Publication of KR101593502B1 publication Critical patent/KR101593502B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/205Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic
    • H04N5/208Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic for compensating for attenuation of high frequency components, e.g. crispening, aperture distortion correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PURPOSE: An individual photographing method for revising the distortion of video data created due to backlight is provided to compensate an individual area and an individual peripheral area in a pixel generating the backlight. CONSTITUTION: Pixels which are lower than a second standard brightness range pixel are detected(S207). If an iris region is detected by using the adjacent brightness difference included in the medium luminance domain, a plurality of edges is detected(S209). In the luminance domain among a plurality of edges, the individual domain is detected near the boundary line(S210). The brightness of the pixel is set up as a predetermined level(S211).

Description

인물 촬영 방법{Method for taking a photograph of face}How to photograph a person {Method for taking a photograph of face}

본 발명은 카메라 모듈을 이용하여 인물을 촬영하는 인물 촬영 방법에 관한 것이다.The present invention relates to a person photographing method for photographing a person using a camera module.

카메라의 자동 노출제어(Auto Exposure) 혹은 오토 아이리스(Auto Iris)는 CCD(Charge-coupled devices: 고체촬상소자)에 들어오는 광을 최적의 조건으로 하기 위한 기능이다.The camera's Auto Exposure or Auto Iris is a function to optimize the light entering the CCD (Charge-coupled devices).

즉, 입사되는 광량에 따라 최적의 조리개(Iris) 값을 설정함으로써 카메라의 노출을 제어하는 것이다.That is, the exposure of the camera is controlled by setting an optimum aperture value according to the amount of incident light.

상기와 같은 자동 노출제어는, 포화 광량 이상으로 강한 빛이 입사되면 신호 전하가 넘쳐 주위 화소에 잉여 전하가 혼입되어 빛이 비추어지지 않은 부분까지 밝아지는 현상인 블루밍(Blooming)이나, 과잉의 빛에 의해 수직 방향으로 줄무늬상의 밝은 띠가 생기는 현상 CCD 수직 전송부의 불완전 차광에 의하여 발생하는 스미어(Smear) 같은 현상을 제거 혹은 방지하는 기능도 제공한다.Such automatic exposure control is a phenomenon in which a strong light incident above the amount of saturation light enters a signal charge, and excess charge is mixed in the surrounding pixels, thereby brightening the part where the light is not illuminated. Phenomena of Bright Stripes in a Vertical Direction by the Vertical Direction It also provides a function of removing or preventing a smear, such as a smear caused by incomplete shading of a CCD vertical transfer unit.

그러나, 어두운 피사체는 암(暗)부 상태로 밝은 피사체는 명(明)부 상태로 촬영하기 위해서는 CCD의 다이나믹 레인지(Dynamic Range)를 충분히 넓게 해주어야 하나 고해상도(300만 화소 이상) CCD의 포화 출력은 200mV ~ 500mV로 제한적이며, SN비(신호대 잡음비) 또한 크게 할 수 없기 때문에 상기와 같은 Blooming과 Smear에 대해 완벽히 대처 할 수 없는 상태이다.However, in order to capture dark subjects in the dark state and bright subjects in the bright state, the dynamic range of the CCD must be wide enough, but the saturation output of the high resolution (more than 3 million pixels) CCD It is limited to 200mV ~ 500mV, and the SN ratio (signal-to-noise ratio) cannot be increased, so it is not able to cope with the above blooming and smear completely.

특히, 역광 하에서 인물의 얼굴이 어둡게 되지 않고 선명하게 촬영하는 경우와 조명을 직접 바라보며 촬영하는 경우, 야간에 헤드라이트의 빛이 들어와도 자동차를 촬영할 수 있는 등과 경우에는 더욱 노이즈가 나타날 수 밖에 없다.In particular, when the subject's face is not darkened in the backlight, and the image is taken clearly while looking directly at the light, the noise may appear even when the car can be photographed even when the headlight comes in at night.

상기와 같은 노이즈 현상을 방지하기 위하여, 종래의 기술은 화면 평균 방식과, 각 화면 별 비중을 두는 화면 분할 평균 방식을 사용한다.In order to prevent the noise phenomenon as described above, the conventional technique uses a screen averaging method and a screen division averaging method in which specific screen weights are assigned.

화면 평균 방식이란 화면 전체 혹은 일부의 휘도 레벨(Level)의 평균값을 비교하여 아이리스를 제어하는 기술이고, 화면분할 평균 방식이란 영상 신호를 복수개로 화면 분할하여 영역마다 얻어진 휘도 정보를 통해 촬영 화면 내의 명암 분포를 검출하여 자동적으로 보정하는 기술을 가리킨다.The screen averaging method is a technique for controlling the iris by comparing the average value of luminance levels of the whole screen or a part of the screen, and the screen split averaging method is used to control the iris in the photographing screen by using brightness information obtained for each area by dividing the video signal into a plurality of screens. Refers to a technique for detecting and automatically correcting a distribution.

그러나, 상기와 같은 방법 또한 상기 노이즈(Smear, Blooming)에 대해 효과적인 해결책이 되지 못하며, 특히, 휴대전화기나 노트북 컴퓨터와 같은 모바일(Mobile) 기기용 카메라에 적용하는 경우에는 카메라 모듈의 공간적 제약으로 아이리스, ND (Neutral Density) 필터의 적용이 매우 어려운 현실이다.However, the above method is also not an effective solution to the noise (Smear, Blooming), in particular, when applied to a mobile device camera, such as a mobile phone or notebook computer iris due to the spatial constraints of the camera module However, it is very difficult to apply ND (Neutral Density) filter.

특히, 역광 영상과 같이 영상 데이터가 왜곡된 경우, 영상 데이터를 보정하여영상의 화질을 개선하는 것이 필요하다.In particular, when the image data is distorted, such as a backlight image, it is necessary to correct the image data to improve the image quality of the image.

본 발명은 역광이 발생한 화상의 인물 영역을 보정하는 인물 촬영 방법을 제공한다.The present invention provides a person photographing method for correcting a person area of an image in which backlight is generated.

본 발명의 한 특징에 따르면, 입력되는 영상을 복수의 윈도우 영역으로 분할하는 단계, 상기 복수의 윈도우 영역의 전체 휘도 평균값을 계산하고, 상기 복수의 윈도우 영역별 휘도 평균값을 계산하는 단계, 상기 복수의 윈도우 영역별 휘도 평균값 중 상기 전체 휘도 평균값 이상인 윈도우 영역인 고휘도 영역의 개수를 카운팅하는 단계, 상기 고휘도 영역의 개수가 기준 개수 이상이면, 상기 휘도 평균값이 설정된 제1 기준 휘도 범위에 포함되는 상기 윈도우 영역을 중간 휘도 영역으로 검출하는 단계, 상기 중간 휘도 영역에 포함되는 복수의 픽셀 중 채도가 설정된 기준 채도 범위에 포함되는 픽셀들을 얼굴 영역으로 검출하는 단계, 상기 얼굴 영역에 포함되는 픽셀들의 휘도 중 설정된 제2 기준 휘도 범위의 상한값 미만인 픽셀들을 홍채 영역으로 검출하는 단계, 상기 중간 휘도 영역에서 상기 홍채 영역이 검출되면, 상기 중간 휘도 영역에 포함되는 인접한 두 픽셀간의 휘도 차이를 이용하여 복수의 에지를 검출하는 단계, 상기 복수의 에지 중 상기 중간 휘도 영역의 테두리에서 가장 가까운 에지를 경계선으로 하는 인물 영역을 검출하는 단계, 상기 인물 영역에 포함되는 픽셀의 휘도를 설정된 레벨만큼 높여 설정하는 단계를 포함하는 인 물 촬영 방법이 제공된다.According to an aspect of the present invention, the method may include: dividing an input image into a plurality of window regions, calculating a total luminance average value of the plurality of window regions, and calculating a luminance average value of each of the plurality of window regions. Counting the number of high luminance regions that are window regions that are equal to or greater than the overall luminance average value among the luminance average values for each window region, and when the number of the high luminance regions is equal to or greater than a reference number, the window region included in the set first reference luminance range. Detecting as an intermediate luminance region, detecting pixels included in a reference saturation range of saturation among the plurality of pixels included in the intermediate luminance region as a face region, and generating a set luminance among the luminance of the pixels included in the face region. Pixels below the upper limit of the 2 reference luminance range are detected as the iris region In the step of detecting the iris region in the intermediate luminance region, detecting a plurality of edges by using the luminance difference between two adjacent pixels included in the intermediate luminance region, the edge of the intermediate luminance region of the plurality of edges A method for capturing a person is provided that includes detecting a person area having an edge closest to the boundary and increasing the luminance of a pixel included in the person area by a predetermined level.

본 발명의 실시 예에서는 역광이 발생한 화상에서 인물 영역과 인물 주변 영역을 별도로 보정함으로써, 역광으로 인해 발생한 영상 데이터의 왜곡을 보정할 수 있고, 인물 영역과 인물 주변 영역 사이의 경계를 보다 분명해져 영상의 화질을 개선할 수 있다.In an embodiment of the present invention, by correcting a person area and a person surrounding area separately in a backlit image, it is possible to correct distortion of the image data caused by the backlight, and the boundary between the person area and the person surrounding area becomes clearer. Can improve the picture quality.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제2 구성요소는 제1 구성요소로 명명될 수 있고, 유사하게 제1 구성요소도 제2 구성요소로 명명될 수 있다. For example, without departing from the scope of the present invention, the second component may be referred to as the first component, and similarly, the first component may also be referred to as the second component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, the terms "comprises", "having", and the like are used to specify that a feature, a number, a step, an operation, an element, a component, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

이제 본 발명의 실시 예에 따른 인물 촬영 방법에 대하여 도면을 참고하여 상세하게 설명하고, 도면 부호에 관계없이 동일하거나 대응하는 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기도 한다.Now, a person photographing method according to an exemplary embodiment of the present invention will be described in detail with reference to the drawings. The same or corresponding elements are denoted by the same reference numerals regardless of the reference numerals, and redundant description thereof will be omitted.

도 1은 본 발명의 실시 예에 따른 인물 촬영 방법을 나타내는 플로우차트이다.1 is a flowchart illustrating a person photographing method according to an exemplary embodiment of the present invention.

도 1은 영상을 취득할 수 있는 수단으로부터 입력되는 영상을 처리하는 프로 세서에 동작에 관한 것으로, 프로세서를 포함하는 장치의 구성에 대해서는 도시하지 않았으며 도 1에 도시된 방법은 영상을 처리하는 프로세서를 포함하는 모든 장치에 적용 가능하다. 특히, 이동통신 단말기에 내장되는 카메라 모듈에 적용 가능하다.FIG. 1 relates to an operation of a processor for processing an image input from a means capable of acquiring an image. The configuration of an apparatus including a processor is not illustrated, and the method illustrated in FIG. 1 is a processor for processing an image. Applicable to all devices including the. In particular, the present invention can be applied to a camera module embedded in a mobile communication terminal.

도 1에 도시된 바와 같이, 본 발명은 취득한 영상이 입력되는 단계(S100), 입력되는 영상에 역광이 발생한 영상인지 아닌지를 판단하는 단계(S200). 역광 영상이라 판단되면 영상 중 인물 영역과 인물 영역이 아닌 영역을 검출하여 보정하는 단계(S300), 역광 영상이 아니라고 판단되면 영상을 디스플레이부(도시하지 않음)로 보정없이 출력하는 단계(S400)를 포함한다.As shown in FIG. 1, the present invention includes the step of inputting the acquired image (S100), and determining whether or not the backlight image is generated in the input image (S200). If it is determined that the image is a backlight image, detecting and correcting a region of the person and a non-person region of the image (S300); and if it is determined that the image is not a backlight image, outputting the image to the display unit (not shown) without correction (S400). Include.

도 2는 본 발명의 실시 예에 따른 역광 영상 판단 단계(S100)를 설명하는 플로우차트이고, 도 3은 본 발명의 실시 예에 따른 영상을 분할하는 방법을 설명하는 도면이다.2 is a flowchart illustrating a backlight image determination step (S100) according to an exemplary embodiment of the present invention, and FIG. 3 is a diagram illustrating a method of dividing an image according to an exemplary embodiment.

도 2 및 도 3에 도시된 바와 같이, 우선 취득한 영상을 복수의 윈도우(window) 영역(W1~Wn)으로 분할한다(S101). 본 발명에서는 설명의 편의상 영상 데이터를 16개의 윈도우 영역으로 분할하여 설명한다. 하나의 윈도우 영역에는 복수의 픽셀이 포함되어 있다.As shown in Figs. 2 and 3, first, the acquired image is divided into a plurality of window regions W1 to Wn (S101). In the present invention, for convenience of description, the image data is divided into 16 window regions and described. One window area includes a plurality of pixels.

영상의 R, G, B 데이터를 휘도 신호(Y) 및 채도 신호(Cb, Cr)로 변환하고(S102), 전체 영상의 전체 휘도 평균값(Yo)을 계산하고(S103) 분할된 복수의 윈도우 영역(W1~Wn) 각각의 휘도 평균값(Y1~Yn)을 계산한다(S104). Converting R, G, and B data of an image into luminance signals Y and chroma signals Cb and Cr (S102), calculating an average value of overall luminances Yo of the entire image (S103), and dividing the plurality of window regions (W1 to Wn) The respective luminance average values Y1 to Yn are calculated (S104).

복수의 윈도우 영역별 휘도 평균값(Y1~Yn)과 전체 휘도 평균값(Yo)을 비교하 여(S105), 복수의 윈도우 영역별 휘도 평균값(Y1~Yn) 중 전체 휘도 평균값(Yo) 이상인 윈도우 영역을 고휘도 영역으로 검출하고(S106), 복수의 윈도우 영역별 휘도 평균값(Y1~Yn) 중 전체 평균값(Yo) 미만인 윈도우 영역을 저휘도 영역으로 검출한다(S107).The luminance average values Y1 to Yn for each of the plurality of window regions are compared with the total luminance average values Yo (S105), and among the plurality of luminance average values Y1 to Yn for each of the window regions, a window region having a total luminance average value (Yo) or more is high. The area is detected as an area (S106), and a window area less than the overall average value Yo is detected as the low luminance area among the plurality of brightness average values Y1 to Yn for each window area (S107).

그리고, 고휘도 영역의 개수를 카운팅하여(S108), 고휘도 영역의 개수와 설정된 기준 개수를 비교한다(S109). The number of high luminance regions is counted (S108), and the number of high luminance regions is compared with the set reference number (S109).

고휘도 영역의 개수가 기준 개수 이상이면 영상에 역광이 발생한 것으로 판단하여(S110), 인물 영역을 검출하는 단계(S200)를 실시한다.If the number of the high luminance areas is equal to or greater than the reference number, it is determined that the backlight is generated in the image (S110), and the detecting of the person area is performed (S200).

그러나, 고휘도 영역의 개수가 기준 개수 미만이면 영상에 역광이 발생하지 않은 것으로 판단하여(S111) 영상을 디스플레이부(도시하지 않음)로 출력한다(S112).However, if the number of high luminance areas is less than the reference number, it is determined that no backlight is generated in the image (S111) and the image is output to the display unit (not shown) (S112).

도 4는 본 발명의 실시 예에 따른 인물 영역을 검출하는 단계(S200)를 설명하는 플로우차트이다.4 is a flowchart illustrating an operation S200 of detecting a person area according to an exemplary embodiment.

고휘도 영역의 개수가 기준 개수 이상일 경우(도 2에 도시됨, 역광 영상이라 판단), 복수의 윈도우 영역별 휘도 평균값(Y1~Yn)과 설정된 제1 기준 휘도 범위를 비교하여(S201) 휘도 평균값(Y1~Yn)이 제1 기준 휘도 범위에 포함되는 윈도우 영역을 중간 휘도 영역으로 검출한다(S202). When the number of the high luminance areas is equal to or greater than the reference number (shown in FIG. 2, the backlight image), the luminance average values Y1 to Yn of the plurality of window regions are compared with the set first reference luminance range (S201). A window region in which Y1 to Yn) is included in the first reference luminance range is detected as an intermediate luminance region (S202).

그리고, 중간 휘도 영역에 포함되는 복수의 픽셀의 채도와 설정된 기준 채도 범위를 비교하여(S203), 채도가 기준 채도 범위에 포함되는 픽셀들을 얼굴 영역으로 검출한다(S204). 채도가 기준 채도 범위에 포함되는 픽셀이 없는 경우에는 인물 사진이 아니라고 판단하여 영상을 디스플레이부로 출력한다(S205).Then, the saturation of the plurality of pixels included in the intermediate luminance region is compared with the set reference saturation range (S203), and the pixels included in the reference saturation range are detected as the face region (S204). If there is no pixel included in the reference saturation range, it is determined that the saturation is not a portrait and outputs an image to the display unit (S205).

이때, 기준 채도 범위는 살색을 나타내는 채도 범위로서, 채도 신호(Cb)가 69~114 범위 이내에 포함되는 값이고 상기 채도 신호(Cr)가 119~177 범위 이내에 포함되는 값이다.In this case, the reference saturation range is a saturation range indicating the flesh color, and a saturation signal Cb is within a range of 69 to 114 and a saturation signal Cr is within a range of 119 to 177.

다음으로, 얼굴 영역에 포함되는 픽셀들의 휘도와 설정된 제2 기준 휘도 범위를 비교하여(S206), 제2 기준 휘도 범위의 상한값 미만인 픽셀들을 홍채 영역으로 검출한다(S207). 이때, 제2 기준 휘도 범위의 상한값 미만인 픽셀이 없는 경우에는 인물 사진이 아니라고 판단하여 영상을 디스플레이부로 출력한다(S208).Next, the luminance of the pixels included in the face area is compared with the set second reference luminance range (S206), and pixels less than an upper limit of the second reference luminance range are detected as the iris region (S207). In this case, when there is no pixel less than the upper limit value of the second reference luminance range, it is determined that the image is not a portrait and outputs an image to the display unit (S208).

제2 기준 휘도 범위는 검은색을 나타내는 휘도 범위로서, 휘도 신호(Y)가 10 미만인 범위에 포함되는 값이다.The second reference luminance range is a luminance range indicating black and is a value included in a range in which the luminance signal Y is less than ten.

보다 구체적으로, 홍채 영역을 검출하는 단계는 얼굴 영역에 포함되는 픽셀들의 휘도 히스토그램을 N개의 정류분포 함수의 혼합 모델로 모델링하고, 혼합 모델 중 휘도가 제2 기준 휘도 범위의 상한값 미만인 픽셀들을 추출하여 홍채 영역으로 검출한다.More specifically, the detecting of the iris region may be performed by modeling a luminance histogram of pixels included in the face region as a mixed model of N rectification distribution functions, and extracting pixels having a luminance less than an upper limit of the second reference luminance range among the mixed models. Detect with iris area.

얼굴 영역이 검출되고 얼굴 영역 중 홍채 영역이 검출되면, 영상에 인물이 포함되어 있다는 것을 의미한다.If a face region is detected and an iris region of the face region is detected, this means that a person is included in the image.

따라서, 중간 휘도 영역에 포함되는 인접한 두 픽셀간의 휘도 차이를 이용하여 복수의 에지를 검출하고(S209), 검출된 복수의 에지 중 중간 휘도 영역의 테두리에서 가장 가까운 에지를 경계선으로 하는 인물 영역을 검출한다(S210).Therefore, a plurality of edges are detected using the luminance difference between two adjacent pixels included in the intermediate luminance area (S209), and a person area whose boundary is the edge closest to the edge of the intermediate luminance area among the detected plurality of edges is detected. (S210).

이때, 복수의 에지는 하 웨이블렛 변환(Haar wavelet transform) 기법을 이 용하여 검출할 수 있다.In this case, the plurality of edges may be detected using a haar wavelet transform technique.

마지막으로, 인물 영역에 포함되는 픽셀들의 휘도를 설정된 휘도 레벨만큼 높이고(S211), 중간 휘도 영역 중 인물 영역을 제외한 영역에 포함되는 픽셀들의 휘도를 설정된 휘도 레벨만큼 낮춘다(S212). Finally, the luminance of the pixels included in the person area is increased by the set luminance level (S211), and the luminance of the pixels included in the area except the person area among the intermediate luminance areas is lowered by the set luminance level (S212).

이때, 픽셀의 휘도를 높여주는 휘도 레벨과 픽셀의 휘도를 낮춰주는 휘도 레벨은 인물 영역과 인물 외 영역 사이의 경계가 선명하도록 보정되는 값으로, 사용자에 의해서 임의로 조정 가능한 값이다.In this case, the luminance level for increasing the luminance of the pixel and the luminance level for lowering the luminance of the pixel are values that are corrected so that the boundary between the human area and the non-human area is clear and can be arbitrarily adjusted by the user.

그러면, 인물 영역에 발생하는 역광을 보정할 수 있다. 또한, 역광이 발생한화상에서 인물 영역과 인물 주변 영역을 별도로 보정함으로써, 역광으로 인해 발생한 영상 데이터의 왜곡을 보정할 수 있고, 인물 영역과 인물 주변 영역 사이의 경계를 보다 분명해져 영상의 화질을 개선할 수 있다.Then, the backlight generated in the human area can be corrected. In addition, by correcting the area of the person and the area around the person separately in the backlit image, the distortion of the image data caused by the backlight can be corrected, and the boundary between the area of the person and the area around the person becomes clearer, thereby improving image quality. can do.

이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

도 1은 본 발명의 실시 예에 따른 인물 촬영 방법을 나타내는 플로우차트이다.1 is a flowchart illustrating a person photographing method according to an exemplary embodiment of the present invention.

도 2는 본 발명의 실시 예에 따른 역광 영상 판단 단계를 설명하는 플로우차트이다.2 is a flowchart illustrating a backlight image determination step according to an embodiment of the present invention.

도 3은 본 발명의 실시 예에 따른 영상을 분할하는 방법을 설명하는 도면이다.3 is a diagram illustrating a method of segmenting an image, according to an exemplary embodiment.

도 4는 본 발명의 실시 예에 따른 인물 영역을 검출하는 단계를 설명하는 플로우차트이다.4 is a flowchart illustrating an operation of detecting a person area according to an exemplary embodiment of the present invention.

Claims (7)

입력되는 영상을 복수의 윈도우 영역으로 분할하는 단계,Dividing an input image into a plurality of window regions; 상기 복수의 윈도우 영역의 전체 휘도 평균값을 계산하고, 상기 복수의 윈도우 영역별 휘도 평균값을 계산하는 단계,Calculating total luminance average values of the plurality of window regions, and calculating luminance average values of the plurality of window regions; 상기 복수의 윈도우 영역별 휘도 평균값 중 상기 전체 휘도 평균값 이상인 윈도우 영역인 고휘도 영역의 개수를 카운팅하는 단계, Counting the number of the high luminance regions which are window regions which are equal to or greater than the overall luminance average value among the luminance average values of the plurality of window regions; 상기 고휘도 영역의 개수가 기준 개수 이상이면, 상기 휘도 평균값이 설정된 제1 기준 휘도 범위에 포함되는 상기 윈도우 영역을 중간 휘도 영역으로 검출하는 단계,If the number of the high luminance regions is equal to or greater than a reference number, detecting the window region included in the first reference luminance range in which the luminance average value is set as an intermediate luminance region, 상기 중간 휘도 영역에 포함되는 복수의 픽셀 중 채도가 설정된 기준 채도 범위에 포함되는 픽셀들을 얼굴 영역으로 검출하는 단계,Detecting pixels included in a reference saturation range from which a saturation is set among the plurality of pixels included in the intermediate luminance area as a face area; 상기 얼굴 영역에 포함되는 픽셀들의 휘도 중 설정된 제2 기준 휘도 범위의 상한값 미만인 픽셀들을 홍채 영역으로 검출하는 단계,Detecting pixels less than an upper limit of a set second reference luminance range among luminance of pixels included in the face region as an iris region; 상기 중간 휘도 영역에서 상기 홍채 영역이 검출되면, 상기 중간 휘도 영역에 포함되는 인접한 두 픽셀간의 휘도 차이를 이용하여 복수의 에지를 검출하는 단계, When the iris region is detected in the intermediate luminance region, detecting a plurality of edges by using a luminance difference between two adjacent pixels included in the intermediate luminance region, 상기 복수의 에지 중 상기 중간 휘도 영역의 테두리에서 가장 가까운 에지를 경계선으로 하는 인물 영역을 검출하는 단계, 및Detecting a person area having an edge closest to an edge of the intermediate luminance area among the plurality of edges, and 상기 인물 영역에 포함되는 픽셀의 휘도를 설정된 레벨만큼 높여 설정하는 단계를 포함하는 인물 촬영 방법. And setting the luminance of the pixels included in the human area to be increased by a predetermined level. 제1항에 있어서,The method of claim 1, 상기 중간 휘도 영역 중 상기 인물 영역을 제외한 픽셀의 휘도를 설정된 레벨만큼 낮추어 설정하는 단계를 더 포함하는 인물 촬영 방법.And setting the luminance of the pixels excluding the human area among the intermediate luminance areas by lowering the luminance by a predetermined level. 제1항에 있어서,The method of claim 1, 상기 에지를 검출하는 단계는 하 웨이블렛 변환(Haar wavelet transform) 기법을 이용하여 에지를 검출하는 인물 촬영 방법.The detecting of the edges may include detecting an edge using a haar wavelet transform technique. 제1항에 있어서,The method of claim 1, 상기 홍채 영역을 검출하는 단계는 상기 얼굴 영역에 포함되는 픽셀들의 휘도 히스토그램을 N개의 정규분포 함수의 혼합 모델로 모델링하고, 상기 혼합 모델 중 휘도가 상기 제2 기준 휘도 범위의 하한값 미만인 픽셀들을 추출하여 상기 홍채 영역으로 검출하는 인물 촬영 방법.The detecting of the iris region may include modeling luminance histograms of pixels included in the face region as a mixed model of N normal distribution functions, extracting pixels having luminance less than a lower limit of the second reference luminance range among the mixed models. The person photographing method for detecting the iris area. 제1항에 있어서,The method of claim 1, 상기 영상의 R, G, B 데이터를 휘도 신호(Y) 및 채도 신호(Cb, Cr)로 변환하는 단계를 더 포함하며,Converting the R, G, and B data of the image into a luminance signal Y and a chroma signal Cb and Cr; 상기 제1 기준 휘도 범위는 상기 휘도 신호(Y)의 140~180 범위 이내에 포함 되는 인물 촬영 방법.And the first reference luminance range is within a range of 140 to 180 of the luminance signal (Y). 제5항에 있어서,The method of claim 5, 상기 기준 채도 범위는 상기 채도 신호(Cb)의 69~114 범위 이내에 포함되고 상기 채도 신호(Cr)의 119~177 범위 이내에 포함되는 인물 촬영 방법. The reference saturation range is within the range of 69 ~ 114 of the saturation signal (Cb) and within the range of 119 ~ 177 of the saturation signal (Cr). 제5항에 있어서,The method of claim 5, 상기 제2 기준 휘도 범위는 상기 휘도 신호(Y)의 10 미만에 포함되는 인물 촬영 방법.And the second reference luminance range is less than 10 of the luminance signal (Y).
KR1020090066006A 2009-07-20 2009-07-20 Method for taking a photograph of face KR101593502B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090066006A KR101593502B1 (en) 2009-07-20 2009-07-20 Method for taking a photograph of face

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090066006A KR101593502B1 (en) 2009-07-20 2009-07-20 Method for taking a photograph of face

Publications (2)

Publication Number Publication Date
KR20110008587A true KR20110008587A (en) 2011-01-27
KR101593502B1 KR101593502B1 (en) 2016-02-18

Family

ID=43614569

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090066006A KR101593502B1 (en) 2009-07-20 2009-07-20 Method for taking a photograph of face

Country Status (1)

Country Link
KR (1) KR101593502B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105160633A (en) * 2015-07-02 2015-12-16 广东欧珀移动通信有限公司 Image processing method and device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002185771A (en) * 2000-12-14 2002-06-28 Noritsu Koki Co Ltd Image forming device, image data processing method and recording medium recording image data processing program
JP2004201228A (en) * 2002-12-20 2004-07-15 Fuji Photo Film Co Ltd Method and device for extracting face area
KR20080047190A (en) * 2006-11-24 2008-05-28 삼성전자주식회사 Image photographing apparatus having function of auto back light compensation and method thereof
JP2008197762A (en) * 2007-02-09 2008-08-28 Fujifilm Corp Photographing device, method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002185771A (en) * 2000-12-14 2002-06-28 Noritsu Koki Co Ltd Image forming device, image data processing method and recording medium recording image data processing program
JP2004201228A (en) * 2002-12-20 2004-07-15 Fuji Photo Film Co Ltd Method and device for extracting face area
KR20080047190A (en) * 2006-11-24 2008-05-28 삼성전자주식회사 Image photographing apparatus having function of auto back light compensation and method thereof
JP2008197762A (en) * 2007-02-09 2008-08-28 Fujifilm Corp Photographing device, method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105160633A (en) * 2015-07-02 2015-12-16 广东欧珀移动通信有限公司 Image processing method and device

Also Published As

Publication number Publication date
KR101593502B1 (en) 2016-02-18

Similar Documents

Publication Publication Date Title
CN111028189B (en) Image processing method, device, storage medium and electronic equipment
CN107079083B (en) Photographing method, photographing device and terminal
US8401328B2 (en) Image processing apparatus and image processing method
WO2019148912A1 (en) Image processing method, apparatus, electronic device and storage medium
US8363131B2 (en) Apparatus and method for local contrast enhanced tone mapping
CN105592270B (en) image brightness compensation method, device and terminal device
EP3343911A1 (en) Image signal processing method and system
US7358993B2 (en) Digital still camera apparatus, video camera apparatus, and information terminal apparatus
US20070040929A1 (en) Image combination device
CN105432068B (en) Photographic device, image capture method and image processing apparatus
US20090073306A1 (en) Method, medium, and apparatus for setting exposure time
CN107395991B (en) Image synthesis method, image synthesis device, computer-readable storage medium and computer equipment
US11671715B2 (en) High dynamic range technique selection for image processing
TWI779948B (en) Lens dirt detection method for camera module
CN111368819B (en) Light spot detection method and device
CN105450932A (en) Backlight photographing method and device
WO2023137956A1 (en) Image processing method and apparatus, electronic device, and storage medium
CN108259754A (en) Image processing method and device, computer readable storage medium and computer equipment
JP2017073639A (en) Image processing apparatus, control method thereof and program
CN109937382B (en) Image forming apparatus and image forming method
JP2010102426A (en) Image processing apparatus and image processing method
JP2007201963A (en) Imaging apparatus
JP4622196B2 (en) Imaging device
KR101593502B1 (en) Method for taking a photograph of face
US7688357B2 (en) Method and apparatus for color temperature correction in a built-in camera of a portable terminal

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190114

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200109

Year of fee payment: 5